Embedded weblog

Aller au contenu | Aller au menu | Aller à la recherche

linux embarqué

Linux Embarqué, ou Embedded Linux, soit le pingouin multifontion enfoui dans les p'tites boîtes

Fil des billets - Fil des commentaires

mercredi, janvier 18 2012

Linux embarqué : comprendre, développer, réussir

Un projet de deux ans ! Tout remonte à une conférence que j'avais donné en novembre 2009, pour l'APRIL, chez Eyrolles. La librairie-maison d'édition cherchait justement quelqu'un. Au début, pour remettre à jour le Ficheux, dont il était clair que la seconde édition avait vécu. J'ai décliné cette proposition : le Ficheux, c'est le travail, l'approche pédagogique de Pierre, et non seulement c'est à lui de continuer son travail, mais en plus, je suis bien incapable d'avoir le même style, clair, synthétique, mais en même temps, arrivant à faire fi des absences, des trous dans l'exposition des techniques. J'ai donc expliqué que j'étais du genre universaliste, et surtout, que je voulais faire autre chose, quelque chose de différent de ce qui était en fait déjà publié en anglais (parce que ça revient au même, que ce soit en français ou en anglais, pour un Français).

J'avais identifié ceci : aucun ouvrage de la littérature ne permettait de commencer un projet Linux embarqué, ni de le mener à bien. Par où commencer ? Quels sont les obstacles ? Où met-on les pieds ? Comment arriver à bon port ? Un exemple simple : comment fait-on un firmware ? Pas un seul ouvrage pour nous le dire ! (en fait, il y avait un livre que je ne connaissais pas et qui a à peu près cet angle, mais il n'a jamais percé, sans que je comprenne trop pourquoi étant donné sa qualité)

L'idée a été acceptée, et alors que je m'étais toujours dit que je ne me mettrai jamais dans une telle galère, j'ai donc débuté la rédaction. Mon éditrice de l'époque m'avait demandé un sommaire, pour commencer. C'est là que j'ai déterminé une division selon la progression d'un projet : étude de marché, spécifications, réalisation, intégration. Et puis les sous-parties, qui n'ont quasiment pas bougé depuis. J'ai commencé à en rédiger des bouts, que j'avais en tête (par exemple la paravirtualisation), en attendant le go de l'éditrice. Qui, à mon grand désespoir, trouvait toujours quelque chose à redire : il ne faut pas numéroter comme ceci, pas aligner comme cela... Au bout de trois mois (!!) à comprendre la nomenclature locale et le jargon inconnu (local lui aussi...), le sommaire n'était toujours pas jugé satisfaisant : libellés pas super, organisation pas top. Ah. Aucune indication de ce qui ne va pas. Je fais donc intervenir mon ex (vous saurez tout sur ce bouquin...), ancienne de l'édition, avec qui je parle du projet depuis un bout de temps : on discute du projet, et puis on passe un grand coup de neuf sur le sommaire, avec des intitulés "démagos", comme elle dit ("osons parler du droit", par exemple).

Je soumets... Et n'ai aucune nouvelle. En fait, j'apprends plus tard que mon éditrice était déjà partie en congé maternité ; après ça, elle a carrément quitté la boîte. Heureusement, je n'ai pas attendu  — et n'avais pas signé quoi que ce soit. J'en étais arrivé à une conclusion, à force : ce que je voulais faire était un OVNI, un livre comme il n'y en a jamais eu dans l'informatique, transverse, universel, réfléchi, bourré de références vers l'extérieur, une porte d'entrée, en somme. Or, chez Eyrolles, la politique éditoriale est la suivante : le livre doit se suffire à lui-même. Ça veut dire extrêmement peu de liens extérieurs et une impression donnée au lecteur qu'il a fait le tour complet du sujet en lisant le seul ouvrage. Peu importe que ce soit mensonger. Évidemment, ce n'est pas du tout ma façon de penser ; en fait, à la fin de la période de rédaction, mon livre comptait plus de 600 notes de bas de page. Oui, 600. Avec des "infra" et des "supra" ; monté comme une thèse ou un livre de droit.

Juin 2010, j'ai aussi appris que Pierre Ficheux avait entrepris la mise à jour de son propre ouvrage ; Eyrolles avait donc initié les deux projets simultanément, mais sans le dire à aucun de nous deux (ce qui m'a confirmé dans mon choix de m'en détacher, à vrai dire — au final, la troisième édition de Pierre est extrêmement didactique, et un miroir total de mon livre, aucune concurrence entre les deux à mon sens). C'est à partir de là que j'ai réellement commencé l'écriture : jusqu'alors, il devait y avoir une quarantaine de pages écrites, tout au plus. Bien loin des 250 pages que devait faire au final le document ODT (et non LaTeX, pour rester compatible avec la feuille de style Eyrolles que je n'ai jamais utilisée — le poids de l'histoire ; il aura fallu migrer en .DOC, plus tard : les éditeurs vivent à l'âge de pierre sans outils adaptés, de toute façon, et il est vrai que Word est plus puissant que OOo pour gérer les notes sur le texte).

L'écriture d'un livre pareil, ça veut dire travailler tous les jours jusqu'à deux heures du matin, et tous les weekend. Jamais au boulot, pas même entre midi et deux — j'avais donc un système à travers Google notes pour mettre de côté des liens, des idées à développer, des oublis à combler, que je reprenais le soir. Chez les clients ou en formation, il m'est aussi arrivé de noter des points particuliers à inclure ou à étoffer — d'où les remerciements pour mes "cobayes tous désignés". J'ai fouillé les aspects économiques, sociologiques, comportementaux, méthodologiques, tout ce qui était périphérique à la réalisation, tout ce qui est le projet lui-même, en réalité. Et côté réalisation, j'ai essayé le plus possible de parler de ce qui manquait sur le net et dans les livres, de ce qui n'est jamais trop clair ; ça m'a pris un temps fou à faire des recherches, parfois quatre heures pour dix lignes d'écriture ! J'ai donc écrit en désordre, au fil des trouvailles, par complétion, ce qui nécessite d'avoir le schéma global en tête, et prend encore plus de temps (pour éviter de mal classer l'information ou de la doubler extensivement). Mais ça permet aussi de brasser le plus possible, de repenser à ce qui a été écrit, d'agir par couche successives, comme le peintre à l'huile (j'adore cette métaphore). Parfois, j'ai repensé à la correspondance des compositeurs du XIXe, un peu perdus, qui ont l'impression d'avancer en terre inconnue, de créer quelque chose de grand, de novateur, peut-être de révolutionnaire, mais de douter affreusement en même temps : l'échec n'est jamais loin.

Et c'est ainsi qu'en avril 2011, j'avais quasiment fini la rédaction du livre, à l'exception des sections sur le boot du noyau (avec les logs commentés, quelque chose qui n'avait jamais été fait non plus) et les traces. C'est à ce moment-là que j'ai cherché un éditeur.

Soyons clair : la France est extrêmement pauvre en édition informatique. Et chacun se place sur un terrain particulier : ENI est plutôt pour les débutants (et leur qualité de publication est assez bof), Eyrolles pour les étudiants et pros, Dunod pour l'universitaire, et Pearson. Pearson, c'est un peu compliqué, on ne les voit pas beaucoup, mais c'est tout de même Tanenbaum (si je regarde ma très fournie bibliogeek, ce n'est même que ça, un livre sur Matlab et un autre sur LaTeX). Le geek moyen n'a que faire de la maison d'édition, mais personnellement, féru de détails, j'ai toujours associé Pearson à une qualité d'édition certaine, de belles couvertures grises, un beau papier, et un prix un peu trop élevé (mais on paie la qualité, après tout).

Il se trouve que chez Lina, la femme d'un (nouveau) collègue était traductrice, notamment pour Pearson : j'ai donc eu un contact direct. Par manque de chance, mon projet sortant des clous, il a fallu un bon mois et quatre fois les mêmes explications pour me faire ré-aiguiller vers le service "pro", différent du service "étudiant" — c'est pourquoi je n'ai pas de couverture grise... Pearson France (puisque le groupe est international), c'est un peu l'aventure... En tout, il aura fallu trois mois, pour que je sois fixé sur le sort de mon tapuscrit. J'ai même un peu perdu patience, à un moment, et suis allé taper à la porte de Dunod, voir ce qu'ils en pensaient (pour la petite histoire, l'éditeur de la section informatique est un homonyme parfait de mon paternel). J'ai découvert le monde étrange de l'édition. Où chacun vous raconte totalement l'opposé de son concurrent, tout en clamant posséder la vérité universelle (sur le fait que l'auteur doit faire ses schémas lui-même — vous savez pourquoi à présent les schémas chez Dunod ne sont jamais bien propres —, par exemple). Bref, chez Dunod, on adorait l'idée, mais on ne comprenait pas la construction du livre (par exemple, on me reprochait de ne pas assez prendre la parole. Heu ?) ; chez Pearson, on adorait le tout (même si quelques maux de crâne), mais il fallait justifier en long, large et travers pourquoi c'était très bien d'écrire comme ça (ceci dit, il aura fallu se battre un peu pour garder les prises de parole personnelles...).

J'ai ainsi compris quelque chose : les éditeurs ne savent ABSOLUMENT PAS à qui ils s'adressent. C'est dramatique. Dans la catégorie abscons, on m'a demandé chez Dunod qui pourrait écrire ma préface, dans le monde universitaire : sérieusement, est-ce qu'un seul professionnel de l'informatique en général et de l'embarqué en particulier connait une "référence universitaire" et lui accorderait un crédit quelconque ? Et pour Pearson, j'ai donc dû monter un dossier, pour estimer à la louche combien de lecteurs potentiels cela pourrait toucher, pour estimer les ventes. Oui, Linux embarqué, l'OS qui concerne 50% du marché de l'embarqué dans le monde ! Quand on pense que des manuels sur BSD sont publiés, je ne m'y attendais pas... Autre problème : quel est le public visé ? Personnellement, je m'en contre-fiche : chacun trouve ce qu'il y veut ! Eh bien non : chez les éditeurs, tu choisis entre béotien (ce qui a l'air aussi de comprendre l'amateur, fut-il éclairé), étudiant ou professionnel, un seul exclusivement, et tu t'y tiens (à noter que le chef de projet n'est pas même considéré : le pro est l'ingénieur, point). Penser que la même personne peut être successivement tout ça ? Que l'ingénieur et son chef pourrait avoir la même base mais prendre des bouts différents ? (tout en apprenant l'un sur l'autre au passage) Oulah ! Idem, longues tractations, et en réalité, c'est passé parce que j'ai joué l'usure et la désorganisation interne (les éditeurs sont aussi débordés que démunis de bonne gestion — il y a toujours un lien entre les deux), plus que par réelles convictions... À noter qu'en fait, aucun éditeur n'a jamais vraiment investi un salon, interviewé des ingénieurs, notamment sur leurs usages des ouvrages... Aucune étude de marché, même basique, en somme. Heureusement, j'ai eu des soutiens extérieurs pour me conforter dans mon choix de rupture.

En parallèle, j'avais tout de même lancé les relectures. J'ai ciblé plusieurs types de lecteurs : les béotiens, les clients, les ingénieurs non-experts en la matière (merci les amis de l'EPITA promo 2006 !) et évidemment, les experts pouvant corriger les erreurs éventuelles (à ce niveau, les deux meilleurs ont été Chritian Charreyre pour la première moitié, et mon ami Patrick Foubet pour la seconde — l'un des très rares en France à pouvoir relire entièrement cette partie technique, que je ne prétendrais pas moi-même entièrement maitriser !). Bref, j'ai cité tout le monde dans la rubrique remerciements. J'avais aussi lancé Denis Bodor, rédacteur en chef de Linux mag et OpenSilicium, sur l'écriture de la préface (j'avais auparavant proposé cela à Pierre, dont le Linux embarqué 3e édition venait de sortir, mais devant l'absence de réponse, j'avais considéré que c'était quelque peu un refus) ; finalement, sa réponse n'est venu qu'en septembre ou octobre, mais la réception de ses lignes a été l'un des plus beaux cadeaux qui soit. Bref, en attendant la réponse de l'éditeur, j'en ai profité pour corriger le document dans les détails. Essentiellement pour des désambigüisation, ou encore pour des ajouts de précisions (plus quelques erreurs, mais rien de bien sérieux, ouf — ceci dit, l'erreur est ma hantise absolue, travers de perfectionniste au dernier degré). C'est aussi en juillet que j'ai enfin pu trouver le titre de l'ouvrage, non sans l'aide d'une amie complètement étrangère à ces considérations. Je voulais faire ressortir le côté "libre embarqué", mais ça ne sonne pas bien, et ce n'est pas commercial ; en revanche le sous-titre insiste bien sur l'aspect progression et projet.

Il était clair aussi que le style ampoulé de rédaction, avec des parenthèses à volonté (je ne sais pas si vous avez remarqué, mais j'ai une tendance naturelle à l'aparté et à la pensée en arborescence — je ne crois pas que ça se soigne), rendait le tout difficile d'accès, si ce n'est indigeste. Accessoirement, l'ingénieur moyen ne lit pas d'ouvrages universitaires, et se trouve aussi désemparé qu'une poule devant un couteau dès qu'il rencontre une note de bas de page... Bref, travail de l'éditeur absolument obligatoire, auto-publication pas même concevable.

Juillet 2011, Pearson réapparaît : c'est accepté ! Là recommencent... les galères. Déjà, il a fallu arrêter le texte, que je devais mettre à jour en attendant (et comme par hasard, beaucoup de choses ont bougé à ce moment-là !), en plus des corrections. Ensuite, j'ai connu la douleur partagée de tous les auteurs : l'édition. Je reviendrai sur ce sujet dans un billet séparé : l'édition est le métier le plus bordélique que je n'ai jamais croisé (et pourtant, l'informatique a mis très haut la barre !). La nouvelle qui m'a fait le plus plaisir a été de savoir que c'était Dominique Buraud, anciennement O'Reilly France, qui allait s'occuper de mon livre (on m'avait annoncé dès le début que ce serait une éditrice externe qui serait compétente dessus — oui, chez Pearson, maison monstrueusement grande, on manque de personnel...). Il se trouve que j'avais hésité à présenter mon ouvrage à digit books, car je crois dur comme fer à l'édition numérique. Mais deux paramètres ont orienté mon choix : d'abord, le marché auquel s'adresse mon livre est celui de l'industriel, qui en est encore au papier (combien n'ont même pas Internet au travail !) ; ensuite, Pearson est extrêmement connu pour la qualité intellectuelle de ses ouvrages (autant que Dunod, mais l'aspect international en plus), et il se trouve que c'est eux qui font aussi passer le GMAT (c'est donc très stratégique) (il y a aussi un aspect "famille" quand on partage un même éditeur, et en l'occurrence des auteurs d'économie ou de stratégie m'intéressant particulièrement ; mais tout ça, c'est du long terme).

8 %. C'est ce que je touche sur chaque livre vendu. Ça fait autour de 3,50 € avant imposition. Sur les 43€ que coute le bouquin — il devait faire 42 €, au début, je suis sûr que nous perdrons des ventes, étant donné le prix plus élevé de 4 € par rapport à la norme du marché (+12 % !), alors que 42 nous aurait motivé les geeks (mais je crains que les commerciaux de la maison ne sachent vraiment pas où ils mettent les pieds, le prix du numérique est aussi trop élevé, de 10 € à mon sens — pour information, l'auteur ne choisit rien, il subit, même la couverture, mais je reparlerai de tout ça à part).

La vie éditoriale fut donc longue et difficile. D'autant que la consigne a été d'éliminer deux choses : les notes de bas de page et le style universitaire. Côté notes, peu ont survécu en tant que telles, l'écrasante majorité est devenue des encadrés, une petite partie a été sacrifié — quelques petites blagues, notamment (par exemple pour souligner le jeu de mot entre "patent" et les brevets) —ou encore censurée ("vous ne pouvez pas dire ça" — mais heu !!). Il y a aussi l'anglais (comment traumatiser un éditeur ? Oui mais voilà, notre matière parle en anglais ou en franglais, c'est un fait, il n'y a pas le choix ! — débOguer, ce n'est donc pas de moi, hein) ; et les prises de position avec du "je" dedans — ça aussi, ça choque le Français, alors que c'est la norme ailleurs ! Combien de fois n'ai-je pas regretté d'avoir écrit mon livre en anglais ? (d'un autre côté, quand je parle spécifiquement du marché de l'industrie française, ça aurait étrange) Tractations, réécritures, épuisant pour nous deux. Et encore, je n'ai fait ça qu'une seule fois (Dominique, c'est toute l'année, mais je ne sais pas trop si je ne suis pas un client un peu spécial, quand même... Et c'est pour cela que les éditeurs aiment accompagner un livre dès le début — ce qui pour moi, comme je le disais aurait été vécu comme un carcan empêchant l'innovation). Qui plus est, il a aussi fallu, en parallèle, remettre à jour l'ouvrage au fil des sorties, déplacer des morceaux, rajouter des découvertes que j'avais faites entretemps ou encore rajouter des bouts qui se sont avérés manquants à l'usage, comme la section sur la gestion de projet par la méthode Agile. Tout le mois d'octobre, je ne suis sorti de chez moi que pour aller au concert ou à l'opéra ; le reste du temps, la nuit, le weekend, je bossais le livre ; j'ai raté un tas de films au ciné... (et il y a des amies qui me boudent, maintenant...) Au passage, je maudis donc la renumérotation du noyau et la mort clinique de MeeGo...

Bref, après un repoussage de sortie (suite à une gueulante de ma part : certes je veux un résultat parfait, mais là, ce n'était pas même médiocre, la foire à la coquille — un peu quand vous livrez un super-logiciel mais qu'il n'y a pas eu de phase de test, et que ça plante d'entrée de jeu), l'impression a été lancée en novembre, pour une sortie le 9 décembre.

Et c'est ainsi que naquit mon livre. On le trouve sur le site de Pearson, sur la FNAC, sur Amazon, en numérique aussi (PDF uniquement : j'ai demandé SANS DRM, du coup... il y a du watermarking, ce qui n'est pas possible en ePub — c'est d'une stupidité incommensurable, cette non-décision, étonnez-vous que la France soit à la ramasse en numérique !). Et bon, 43€, je m'en excuse (c'est 5% moins cher sur le net — tout en restant supérieur au seuil psychologique de 39€, je vous jure...). Il n'y a pas encore de critique sur le site des vendeurs en ligne : n'hésitez pas à louer mon travail !  :)

Depuis, j'ai eu droit à des revues de presse : ElectroniqueS (édito par le rédacteur en chef François Gauthier), OpenSilicium de janvier-mars 2012 (actuellement en kiosque, une page écrite par Denis Bodor), un petit encart ridicule sur Planète Linux (mais merci quand même), et paraît-il bientôt quelque chose dans un magazine OpenSource qui sera distribué sur Solutions Linux. C'est aussi une fierté. Tellement de travail... qu'il va falloir mettre à jour à présent !

vendredi, février 11 2011

Nokia schizophrène

On me demande souvent "mais que fait Nokia ?". Bonne question : après avoir inventé la tablette internet, par le N770, quatre ans avant que Apple révolutionne le marché avec un produit sur le même secteur (en faisant évidemment semblant, comme à l'accoutumé, d'avoir inventé le bidule, d'ailleurs ils ont tout inventé sur Terre -- à moins que ce ne soit Xerox), après avoir sorti l'année dernière le N900, Nokia était victime de managerialite (aussi appelé : "dérive bureaucratique"). C'est une maladie courante dans les grandes entreprises : à force de stagner, tout un chacun est promu manager, peu importe en réalité ses compétences. Or, un mauvais manager, qui se reconnait au fait qu'il a le leadership d'une huître, ne prend pas de risque : résultat, les merveilles des techno-geeks de folie de Nokia finissaient entre geeks, bien loin du mass market. Et pendant ce temps, comme tout bon gros bourgeois assis sur ses lingots d'or, Nokia vivait sur ses rentes, c'est-à-dire son énorme part de marché sur la téléphonie classique, et même sur la téléphonie smartphone (au sens large, 44% tout de même, mais si technologiquement Symbian reste bien éloigné de l'iPhone et Android, le comptage n'est pas bien discriminant).

Évidemment, une telle situation ne dure jamais, surtout sur un marché où le renouvellement se fait à présent en deux ou trois ans (un an chez les iPhone fans, qui s'achètent en permanence les nouveaux modèles, comme si la crise n'existait pas). Et ça, l'actionnaire, il le sait. Exit donc le vieux CEO de Nokia, et bienvenu au nouveau. C'était en septembre dernier, le NY times nous analysait alors finement la situation (contrairement au Figaro). Le nouveau, donc : Stephen Elop, canadien (Nokia avait toujours été dirigé par un finlandais !), et... ancien de chez M$. Ah ! À l'époque, je me disais : oui, bon, p'têtre bien que, sait-on jamais, il doit en connaître un rayon en marketting. Sauf que ce n'était pas par là que Nokia péchait (leurs publicités, même pour le N900, sont toujours au top -- comparez avec Blackberry ou Phone7, qui laisse pantois devant tant d'aberration anti-communicante). Ni trop en terme de stratégie de développement : Nokia a racheté Trolltech il y a deux ans, c'était exactement ce qu'il fallait faire. Non, définitivement, le problème était purement managerial ET stratégique, pour être plus précis, il fallait donner une ligne claire, des objectifs clairs, et que tout le monde suive la même direction (au lieu de laisser les excellents projets dans des quasi-placards -- il fallait compter deux mois d'attente pour espérer un N900 l'année dernière, absurde !). À l'époque, on pouvait ainsi lire que Stephen Elop était the wrong guy.

He bien, il s'avère que le gus est effectivement bien mauvais. Déjà, il pousse une gueulante comme un putois en s'apercevant que 4 mois après sa prise de poste, rien ne va : ça, mon gus, c'était justement ton boulot. Outre que c'est exactement ce qu'il ne faut pas faire (ça avance à quoi, hein ? Tes chefs pépères vont le rester, tes geeks motivés le sont bien moins), il fustige le fait que MeeGo ne sera pas prêt avant un an : le drame. Parce que franchement, on ne va pas me faire croire qu'il n'a pas les moyens de faire mieux. Et les moyens, on se les donne.

Sa technique fulgurante : signer un accord avec M$ (et avec Ballmer en personne, qu'il ne devait rencontrer qu'une fois l'an lorsqu'il était son N+X) pour mettre du Phone7 sur les terminaux Nokia. Ah ça c'est sûr, ça fait baisser le TTM. Je suis moins sûr que cette stratégie puisse être qualifiée d'intelligente ; je vous la refais sans litote : c'est absolument, profondément, crétin.

Je vous laisse apprécier les commentaires en dessous de l'article précédent. Tout le monde attendait Nokia sur des technos innovantes. À la place, on aura du la dernière mouture de WinCE, qui aurait pu être la dernière avant abandon du marché si cela n'avait pas pris. À la télévision, c'est Microsoft qui assure la publicité de son OS, sans présenter aucun terminal : en fait, il en existe quelques uns, certainement pour éviter les procès sur Android, et supportés par des opérateurs (comme Orange) qui ne supportent plus les détournements d'Android (google talk qui ne fait pas payer la messagerie instantanée, le partage de connexion 3G sur PC fourni de base, etc). Côté ventes, c'est mystère et magouille de chiffres.

Nokia, avec sa population d'ingénieurs formés à Symbian (libéré) et Linux, va donc devoir s'adapter à un nouveau produit dont elle ne connaît rien, et abandonner en rase campagne des équipes qui bossent sur des technos autrement plus innovantes, et libres, sur lesquelles elle avait la main de A à Z. Et cela dans le but de séduire un marché qui n'a que faire de cette technologie, arrivée trop tard et qui véhicule une image déjà dépassée (tandis que Blackberry attaque déjà le mass market et madame Michu, rachetant au passage QNX, ce qui est autrement plus malin). Et alors même qu'une communauté geek est très forte du côté Maemo/Meego. On y croit très fort.

Nokia vient de passer la vitesse supérieure, c'est certain. Vers le mur.

jeudi, décembre 9 2010

ARM European Technical Conference 2010

Avec un bon mois et demi de retard ("tout vient à point à qui sait attendre"), il était peut-être grand temps que je m'atèle au compte-rendu de la demi-journée passée à l'ARM European Technical Conference 2010 du 21 octobre, toujours au même CAP15, où je ne suis arrivé en RER C qu'en début d'après-midi. Pas avant parce que boulot, boulot -- qui accessoirement explique aussi le délai de rédaction du présent billet. Pas après parce que les Anglais savent sous-traiter ce qu'ils ne savent pas bien faire : la bouffe (je plaisante, on mange très bien à Londres, seulement jamais pour moins de 30€ -- alors que là, c'est gratuit). Cette année a signé d'ailleurs le retour de la fontaine de chocolat, et ça, il faut carrément le signaler. ARM is great.

Plaisanterie mise à part, c'est déjà l'occasion de retrouver des acteurs d'Anticyp et de former des liens avec des instituts de formation cherchant des compétences logicielles. Si vous êtes un hardeux en quête d'un formateur de qualité, jeune et dynamique, contactez-moi, j'organiserai immédiatement une rencontre avec Marie-Léona Charpentier du service formation (d'autant qu'elle commence à être formée à l'exercice, on a un bon taux de demande pour les formations en embarqué ces temps-ci). Spécialité Linux, cela va sans dire.

Les petits stands sont à peu près stables d'une année à l'autre, mais force est de constater, tout de même, un recul du logiciel ; notamment du côté de la paravirtualisation, absente du paysage. Peut-être un effet anti-boule-de-neige (ça n'aurait pas été un comble, il faisait certes froid mais encore beau, en ce temps-là), puisque dès lors qu'un concurrent n'est pas présent, pourquoi venir ? Et du côté des conf' programmées, à vrai dire, c'était un peu pareil...

Première conférence logicielle : "Making Open Source Development Easier and Faster". Comprendre : Linaro, projet poussé par ARM en consortium pour accélérer l'intégration de Linux en embarqué. J'étais curieux de savoir ce que cela donnait, en vrai, outre l'exceptionnel très-beau site web (tellement rare...) : eh bien, c'est du très sérieux ! 90 ingénieurs, une véritable organisation, issue d'une association de fondeurs regroupés autour de ARM, qui vont s'occuper de gérer kernel, chaîne de compilation et d'autres sujets immédiatement afférents (conso mémoire, debug, etc -- mais le nombre de thèmes considérés est pour l'instant limité, on ne disperse pas inutilement les ressources) pour assurer un support ARM le plus complet possible, et mettre fin aux problèmes de portabilité. En d'autres mots, ils s'occupent de la couche horizontale pour reverticaliser le marché. Une sortie tous les six mois, une ouverture complète sur les travaux menés, mais une structure de type entreprise assez figée tout de même ; pas vraiment communautaire, donc, mais fort utile par exemple pour sous-traiter l'intégration de patch de support hardware dans le noyau (opération qui prend tout de même six mois : on propose, on négocie, on repropose, c'est testé, c'est à reprendre, et finalement, c'est enfin poussé dans l'arbre, travail de longue halène, pas vrai Google ?). Donc, depuis tout ce temps, la première mouture est sortie, avec un beau gcc (avec gdb), un beau noyau et un bel u-boot. Ça promet, et c'était important.

La seconde conférence à laquelle j'ai assisté était sur Android. En fait, ça a rapidement dérivé sur une implémentation native pour faire du hack atroce (mode Frankenstein), avec le nouvel IDE tout-en-un de ARM, DS-5. Ils sont fous ces hardeux.

Mais revenons-en aux stands : plusieurs me disent qu'ils me lisent avec grand plaisir (notamment le CR de l'année dernière), même avec mes manies de name-dropping (mais je me soigne, regardez ce billet) et de longueur indécente. C'est très plaisant, ma jauge de narcissisme monte (je ne dis pas "remonte", puisqu'elle n'a jamais baissé). Bientôt je signerai des autographes. J'interroge à droite, à gauche, pour prendre le poul : ça pousse beaucoup du côté d'Android, mais ça regarde tout de même du côté de Meego (à mon avis, il vaut mieux, parce que le modèle Google a de sérieuses limites), le pauvre WinCE7 ressemble un peu à un chant du cygne : un dernier essai de Microsoft avant de considérer l'abandon du marché, si ça échoue (z'avez vu les pubs pour les téléphones sous Phone7 qui insultent la concurrence ? On n'y fait pas mention de terminal, hum...), mais ne tirons pas sur l'ambulance. On m'a demandé plusieurs fois si nous considérions donner des formations Android, ou si l'on développait dessus : oui, on développe, et bientôt-oui, une formation est en cours de rédaction ; le problème essentiel est surtout de savoir à quel niveau on se place, applicatif/Java/API ou bas-niveau/conférence ARM/attaque au burin.

Je passe d'agréables moments, notamment avec TI (qui a disséminé ses nouvelles Beagleboard sans flash -- cette manie, je ne comprends pas, rendez-moi ma flash !) et ENEA (on parle tourisme économique entre Suède et pays de l'Est sous-traitants -- on n'y fait pas du pr0n, là-bas, mais de plus en plus d'embarqué, pour de "pures raisons techniques", mais il faudra un jour que j'écrive un pamphlet à ce sujet, promis). Comme chaque année, je ne gagne aucun lot au tirage au sort (ce qui est très dommage, puisque cette année j'ai pensé rendre mon bulletin avant le tirage). Par soucis de préservation de la planète, j'ai ramené peu de documentation (ce bon karma amènera certainement quantité de contrat sur plusieurs réincarnations), les slides étant cette année en ligne (à condition de s'enregistrer, tâche hautement pénible quand on reçoit déjà en double les mails sur des boîtes pro et perso, et qu'on voudrait utiliser encore une nouvelle adresse mail...).

mardi, juin 1 2010

Apple sentirait-il le vent tourner ?

C'est ce que l'on peut se poser comme question au regard de la sortie de l'arme nucléaire juridique : les brevets logiciels. Pour rappel, les brevets logiciels ne sont valables qu'aux USA et autres pays de ce goût-là (le Japon, par exemple), mais heureusement pas en Europe (malgré la poussée de lobbies mal intentionnés). La situation est la suivante : les grands groupes possèdent des porte-feuilles entiers de brevets validés par un bureau peu regardant (le double-clic pour Microsoft, l'achat en un clic pour Amazon, etc), et se mènent une guerre... froide. Équilibre des forces. Les nouveaux arrivants, eux, se font bouffer tout crus : avant de pouvoir s'acquitter de la liste des brevets à payer pour faire quoi que ce soit, ils ont déjà entamé tout leur capital. Nouveaux arrivants qui ne sont pas (forcément) de petites entreprises à croissance potentielle exponentielle (celles-là sont obligées de conquérir de nouveaux marchés, Internet dans les années 90-2000 par exemple) ; on pense en fait plutôt aux asiatiques ; ou aux grandes sociétés voulant s'étendre sur un secteur où elles étaient absentes.

Et c'est ainsi que Google marcha sur les plate-bandes d'un arrivant pas beaucoup plus ancien dans l'histoire de l'embarqué (ni de la téléphonie portable) : Apple. Pour rappel, l'iPhone a certes très bien marché, mais pas aussi bien dans le reste du monde qu'en France (il y a un syndrome certainement nombriliste français d'induction forte ; un peu comme lorsqu'on croit que MSN s'est imposé partout : en fait, c'est juste totalement faux -- j'accorde un phénomène de sur-visibilité dû à l'unicité de forme des produits, tout au plus) ;et même sur le marché spécifique des smartphones le leader de très loin reste Nokia (44%), suivi de BlackBerry (19%). Il n'empêche : l'iPhone possède (entre autres) le multi-touch. Mais la dernière mouture d'Android aussi. Et donc le Desire, le Nexus (seul commercialisé sous la marque Google mais en réalité sous-traité) ou les prochains téléphones de HTC de même. Apple attaque violemment sur le terrain de la propriété intellectuelle HTC, le Taïwanais qui pèse bien moins (presque dix fois moins) lourd qu'eux en bourse -- mais après tout, Apple ne valait plus grand chose il y a 10 ans. En réalité, c'est à Google que s'adresse Apple ; avoir le courage de les affronter n'est cependant pas au programme (allez savoir pourquoi, n'est-ce pas ?).

Si l'honneur de personne ne sort jamais grandie de ce genre d'affaires, il est en tout cas assez cocasse de voir ainsi Apple, qui a débuté en piratant le réseau téléphonique de AT&T, et qui a piqué bon nombre de ses idées "novatrices" de ses débuts à Xerox (l'interface graphique et la souris, entre autres), Apple qui est en train de nous faire croire qu'ils ont inventé la tablette Internet tactile là où le N770 existe depuis 2005, jouer aux vierges effarouchées dès qu'il s'agit de défendre son bout de gras. Tous les coups sont permis. HTC contre-attaque déjà, avec les mêmes armes. Une bataille de longue haleine s'engage.

Avec 5 millions d'appareils vendus sous Android (et 4 autres millions sous d'autres systèmes Linux), les parts de marché de Apple  se voient menacées : c'est bien sur le même segment que ce situe la bataille. RIM pourrait aussi en pâtir lourdement ; je l'ai déjà écrit, Microsoft sent la partie lui échapper. Les prévisions que l'on pensait très optimistes pour 2012 (et qui avaient été formulé en 2008) de l'impact de Linux dans le marché de la téléphonie sembleraient à présent... sous-estimées ! Car avec l'abandon programmé de Symbian pour du MeeGo, le renouvellement du parc d'ici deux ans, via un levier Nokia qui possède 44% du marché des OS de smartphones (et 35% du marché de la téléphonie), va être certainement très impressionnant.

Mais Google ne s'arrêtera pas là : les tablet PC vont venir chatouiller l'iPad, et on compte déjà Archos, ASUS (Eee Pad), Dell (Streak, Mini 5), Samsung (S-Pad), Notion Ink (Adam). On verra si Apple néglige toujours le port USB (comme ils avaient négligé la 3G sur le premier iPhone, quand on y pense). Deux philosophies vont s'affronter : l'ouverture (évidemment, il y a la problématique du Market, mais elle est justifiable d'un point de vue de la sécurité) vs la fermeture totale du business model à la pomme.

Et un nouveau marché semble encore à conquérir : la télévision numérique. Dans un marché sclérosé et fortement concentré aux mains de quelques monopoles, certes entamés par les opérateurs triple-play (qui découvrent le métier sur le tas), ça pourrait faire mal : pour peu que les opérateurs découvrent que l'on peut faire beaucoup mieux avec beaucoup moins cher et beaucoup moins complexe, ça risque de faire mal. Un peu comme lorsque Apple a mis un coup de pied dans la fourmilière des smartphones : car s'il faut bien leur reconnaître un mérite, un seul, c'est bien celui-là. La bataille ne se joue plus sur le software en lui-même : elle se joue sur le contenu, sur la valeur ajoutée intrinsèque. À ce niveau-là, Android a la portabilité et donc la diffusion de masse sur des secteurs variés, ramenant autant de développeurs nouveaux que possible, de son côté. Un avantage qui pourra s'avérer rapidement décisif.

jeudi, avril 29 2010

Microsoft sentirait-il le sapin embarqué ?

D'après Engadget, il semblerait que la firme de Redmond sente le vent tourner. La preuve : tout à coup, les voilà qui se réveillent et trouvent qu'Android a l'air de violer quelques uns de leurs zillons de brevets logiciels débiles (je rappelle qu'ils ont réussi à breveter le double-clic...). La bonne affaire. Sans même se donner la peine de dresser une (fausse) liste, les voilà qui réclament déjà leur obole aux intégrateurs, HTC en tête. On remarque que (coïncidence !) ces derniers ont totalement viré Windows Mobile de leurs téléphones, OS largement instable, pour le remplacer par de l'Android : Hero, Desire (que je viens d'acquérir, j'ai craqué, Meego va mettre trop longtemps pour arriver) et bientôt l'Incredible. Forcément, dans ce genre de cas, personne ne se fâche, et l'on paie contre réduction. Qui sera le premier à se rebeller et à aller au bout d'un procès ? Après tout, pourquoi vouloir encore caresser Microsoft, et ses technique commerciales que nous éviterons de qualifier afin de ne pas choquer la ménagère de moins de 50 ans, dans le sens du poil ?

Le chant du cygne embarqué, manifestement.

mardi, avril 13 2010

RTS10: journée spéciale Linux Embarqué

Après cinq années de visite de ce salon, et pour cette sixième fois, j'ai été conférencier. Francis Mantes m'avait entretenu l'année dernière de sa volonté de monter une sorte d'atelier thématique autour de l'OS libre embarqué. Revu à la baisse, le projet s'est concrétisé en une journée de conférence complète consacrée au sujet, organisée par l'incontournable François Gautier. J'en avais ici-même fait la publicité. Battage aussi par mail qui n'aura pas donné grand chose, ai-je bien eu l'impression, mais ce ne fut pas bien grave : si l'on se disait que les 215 inscrits une semaine avant l'événement ne viendraient pas tous, force a été de constater que le public a été très nombreux. Et il n'est pas même improbable qu'une partie ait abandonné l'idée de s'arrêter pour s'asseoir : car cela était tout bonnement impossible à une trentaine de personnes ! À la louche : entre 80 et 90 "spectateurs". Debout contre les fines parois, au fond, sur les côtés, on s'arrange comme on peut. Dans le public, je reconnais même un collègue et mon ancien responsable commercial de ma précédente boîte !

Pourtant, l'affichage de l'événement n'était pas bien clair : déclaré deux fois (en réalité pour différencier le matin de l'après-midi), avec des intitulés similaires, bien du monde n'avait compris que les contenus seraient différents. En réalité, il y avait donc le matin Colin WALLS pour MENTOR GRAPHICS, Guillaume CHAUSSIN pour WIND RIVER et Pierre FICHEUX pour OPENWIDE ; tandis que l'après-midi ne faisait figurer que Pierre (again) et (enfin) votre serviteur pour LINAGORA (on l'aura deviné). Nicolas NAVET, de l'INRIA, n'ayant en réalité animé que l'après-midi, le matin étant assuré par François GAUTIER.

Colin Walls est très américanisé dans sa présentation corporate : avec son polo, il nous donne une vue d'ensemble très haute sur Andoid, avec des briques de couleur très jolies ; Guillaume Chaussin est pour sa part très francisé, avec son costard-cravate il nous donne un autre vue très haute sur Android. Là où ça devient amusant, c'est que le public posant à peu près les mêmes questions pour l'un et l'autre, à 45 minutes d'intervalle, le discours est tout différent : sur l'usage de RAM (et donc le dimensionnement nécessaire qui en découle), sur la possibilité de détourner la libc pour en faire du "natif" (comprendre du binaire à partir de code C), bref tout ce qui peut intéresser la vie réelle. Questions pertinentes aussi sur la "certification" Google, qui ressemble fortement au business model Apple (avec son iPhone) : l'accès au vivier d'applications (qui fait beaucoup, sinon toute, de la valeur ajoutée) n'est disponible que si la déclaration de compatibilité est statuée ; imaginons un appareil qui dispose de hardware (une webcam, par exemple) nécessitant quelques hooks, nous voilà privé du tampon. Je trouve que pour du libre, c'est compréhensible d'un point de vue industriel, mais ça craint dans l'absolu. Ceci me conforte dans mon idée : j'attendrai MeeGo (c'est cher, un smartphone, avez-vous remarqué ?). Toujours est-il que le succès d'Android est manifestement fulgurant (mais les entraves plaisent au monde industriel, je pense qu'il y a une fonction psychologique de masochisme latent, un jour j'écrirai un mémoire de socio dessus, promis -- enfin, si j'ai le temps).

Je me disais que l'après-midi, personne ne viendrai. Après tout, la présentation de Pierre le matin, sur Qemu, afin de tester sur la plate-forme de développement un système cible (le userspace, en fait, mais justement Pierre a fait pour nous un détour par le kernelspace : OpenWide -- enfin, OS4i, la branche pour l'embarqué -- a utilisé Qemu pour supporter un vieux système faisant appel à du matériellement deprecated pour une couche de virtualisation bien maligne), aurait pu satisfaire les aspirations techniques de l'auditoire. Que nenni : ce fut plus geek, plus roots, plus avide de bas niveau et de goût du silicium. Un public tellement nombreux qu'il y en avait assis dans la travée centrale, d'autres ayant même détourné des sièges pour les ramener sur le côté. Juste impressionnant.

Pierre Ficheux a donc montré l'étendu de son savoir-faire en matière de présentation (mais pas en matière de schématisation ! :)  Il faut lui proposer un DIF pour manier Inkscape, je ne vois que ça), en enchaînant coup sur coup "Comment accélérer le temps de boot d’un Linux" (trucs et astuces au programme) puis "Comment déboguer le cœur Linux" (en l'occurrence avec kgdb et kdb). Qu'il me soit permis de remercier Pierre : il a introduit admirablement bien ma conférence, soit volontairement (avec des "cf conférence suivante par Gilles Blanc" explicites), soit... involontairement, avec le bricolage de debug ou la phrase qui m'a fait bien rire : débugguer en assembleur le kernel Linux, c'est la galère la plus totale. Ce qui est fort vrai, preuve en a été donnée par ma personne juste ensuite.  :)

Il m'a donc non seulement été donné de mener ma première conférence à RTS, mais en plus de le faire après Pierre, ce qui est un grand honneur : la dernière conférence sur Linux embarqué à laquelle j'avais assisté le faisait figurer en bonne place, c'était il en 2007 ce me semble, j'étais tout jeune et dans l'assistance, mais n'en avais pas moins envie de franchir la table des conférenciers. Hasard du sort, mon sujet s'est donc porté sur de l'ultra-geek (tandis qu'habituellement, en conférence, je donne exactement le contraire : état des lieux du marché, stratégie de mise en place de Linux, pertinence, etc, le tout pour un large public) : comment utiliser le câble J-Tag du pauvre (sinon, on parlerait de "sonde") pour débugger sur le pouce un Linux récalcitrant, et ce dès le démarrage (c'est-à-dire que l'on n'a même pas de log en console, ou une console inopérante, et peut-être pas même encore de MMU).

Mes lecteurs depuis les débuts (ou presque) de ce blog auront sans doute reconnu mon aventure de 2008, que j'avais conté en deux parties. En version simplifiée sur slides, ça donne du burlesque, et je suis fier de vous annoncer que seulement une quinzaine de personnes ont abandonné en cours de route. Denis Bodor, rédacteur en chef de GNU/Linux Magazine France (dont le dernier numéro hors série sur les systèmes embarqués est excellent -- à ce propos, Pierre a reçu un mail de remerciement pour son article sur Buildroot, qui a sauvé des vies : pourquoi ne reçois-je rien dans ce genre, moi, hein ?), et qui a du fond de la salle assisté à ma présentation, m'a révélé que plusieurs personnes se disaient entre elles que dans la vraie vie, c'est souvent comme ça que ça se terminait. Avec la méthode scout. D'ailleurs, à la fin de ma conférence (et donc de la journée spéciale Linux embarqué), après ma démonstration (qui a marché du premier coup !) consistant à "rediriger" les logs, normalement envoyés sur le port série, sur la console gdb via le J-Tag, un petit groupe d'intéressés s'est formé, et entre ceux qui dessoudent au briquet et ceux qui soudent du FPGA à l'étain, on s'est retrouvés un peu bête. On trouve toujours pire que soit (surtout chez les hardeux).

Mais revoilà que je suis trop long (quoique cette fois-ci, comme on m'a beaucoup pressé, j'ai terminé à l'heure !). Voici donc les slides : bonne (re)lecture !

jeudi, mars 25 2010

Solutions Linux 2010

Plus exactement, pour ce qui nous intéresse : les conférences sur l'embarqué du jeudi 18 mars, toujours organisées par Sébastien Dinot, membre émérite de l'APRIL et salarié de CS. Les conférences étant payantes sur Solutions Linux, le public était assez peu nombreux, une douzaine de personnes en plus des conférenciers eux-même, dirais-je. Suite au désistement de l'intervenant d'Armadeus, le nombre de conférences s'est donc réduite à trois, mais le contenu s'est prêté au remplissage du temps imparti, de 14h00 passés à 17h30 environ.

Première intervention de la part d'un enseignant-chercheur de l'ENAC (Aviation Civile), Pascal Brisset, à propos du projet paparazzi UAV System (Unmanned Air Vehicule). Il s'agit d'un ensemble de composants logiciels (en C/C++/OCaml, basé sur Debian, compilé par GCC, usant de GTK et du bus logiciel Ivy : que du libre !) permettant de mettre en place "simplement" un système de d'autoguidage (pilote automatique) : aérien de type microdrône ou quadrotors (sorte d'hélicoptère à quatre hélices), ou terrestre. La présentation a mis l'accent sur les problématiques inhérentes à ce type de système (notamment en terme de détection et les latences que cela implique, différentes selon les types de véhicules). Très particulier, mais idéal pour ouvrir des horizons insoupçonnés (il est assez étonnant de constater qu'une communauté, certes réduite mais active, s'est formée autour de ce projet très particulier !).

La seconde intervention portait sur OpenEmbedded, système que je connais fort bien pour l'avoir pratiqué il y a trois ans, chez Sagem (ma vie avant Linagora). La présentation du jeune Cyril Romain, employé aussi par CS mais sur d'autres sujets que l'embarqué, qui s'est passionné à titre personnels pour le sujet notamment à cause de son PDA, fut fort claire, à mon sens. Elle ne souffrait seulement de n'être pas assez orientée vers les problématiques des utilisateurs professionnels, ce qu'a inévitablement été soulevé en questions ; j'ai donc pu compléter en ce sens sa présentation sur ces points : comment OpenEmbedded aide aux respects des licences, les temps de prise en main et de construction et surtout les limites de l'automatisme de la construction d'images (un firmware est quasiment tout le temps composé d'une partie RO et d'une autre RW, soit deux partitions, sur lesquelles s'étale le système : à ma connaissance, aucun SDK ne gère cette problématique complexe). Au final, la présentation était très bonne, et notre intervenant de qualité : j'espère que ses slides seront disponibles publiquement, auquel cas je ne manquerai pas d'ajouter un lien vers elles dans mon cours sur Linux embarqué !

La troisième et dernière intervention était de mon collègue et responsable d'équipe Benoît Donnette, à propos du bus logiciel Tango. Ce middleware de bus logiciel nous a effectivement occupé essentiellement de mai à septembre 2009, dans le cadre d'un projet de refonte d'un système de contrôle-commande pour le compte du CEA, et ayant réalisé la plupart des "device servers" (couche logicielle de contrôle-commande côté machines) et les interfaces graphiques (côté utilisateur), tout autant que la première étude technique sur le sujet, j'étais hautement concerné, et ai pu participer à l'intéraction avec le public, puisqu'étaient spécialement présents quelques personnes du CEA, et notamment l'un des concepteurs originaux du projet.

Forcément, à la fin de cette série de conférences, les discussions sont allées bon train, et des contacts très intéressants ont été pris.

mardi, mars 23 2010

Conférence RTS2010 : Journée spéciale « Linux embarqué »

Mercredi prochain (31 mars) aura lieu toute la journée sur le salon RTS une série de conférences sur le thème de Linux embarqué. Thème qui m'est cher, comme vous le savez bien. Le modérateur sera l'habituel François Gauthier, qui a communiqué le programme exact hier (outre le fait que 215 personnes sont déjà inscrites !) :

Linux est devenu au fil des ans un système d’exploitation incontournable dans l’embarqué. Et il ne cesse d’évoluer, notamment à travers la notion de plates formes, comme Android, pour les appareils portables ou Genivi pour l’automobile. Le matin les exposés porteront sur les ambitions de ces plates forme logiciel en Open Source, basées sur Linux, et l’après midi sur les méthodes de débogage et d’analyse de Linux pour l’embarqué.

Matin (10h-12h30) :
“Android, Linux and Real-time Development for Embedded Systems”, par Colin WALLS, Mentor Graphics
“Accélérer et innover avec Android”, par Sebastien Lalaurette, Wind River
“Le simulateur Qemu et le projet couverture”, par Pierre FICHEUX, Openwide

Après-midi (14h-16h30) :
Tutorial Linux pour l’embarqué, par Pierre FICHEUX Open Wide
    _ Part I : Comment accélérer le temps de boot d’un Linux
    _ Part II : Comment déboguer le cœur Linux
“Utilisation de gdb et OpenOCD (logiciel de gestion J-TAG libre) dans le cadre du débogage bas niveau du kernel lors de la phase d'initialisation”, par Gilles BLANC, Linagora.

Vous l'aurez remarqué, j'interviendrai en dernier, et honneur m'est fait de succéder à Pierre Ficheux. Cependant, ma présentation ne sera certainement pas sur le même ton, mais plutôt une plongée technophile dans le coeur de Linux, avec peu de moyens et beaucoup de courage : ce sera une reprise d'un développement que j'ai effectué en 2008, et relaté ici-même. La présentation devrait durer 45 minutes environ, et si le Dieu des Pingouins sera clément, il devrait y avoir une démo (très impressionnante, avec des effets pyrotechniques, et qui donnera lieu à... l'obtention d'un shell).

dimanche, décembre 27 2009

revue de presse

Il faut bien avouer qu'avec la masse de boulot de ces derniers temps, la revue de presse est quelque peu passée à l'as. Pourtant, bien des choses intéressantes peuvent être trouvées en tant que parfaite transition avec le billet précédent. Et déjà, comme je me demandais ce que devenais l'architecture SuperH, chez Renesas (qui possède la licence), la branche SH-mobile (sous SH4-A) tourne à présent sous Linux par défaut -- leur site peu prolixe en terme de software, il n'est pas précisé si le "RTOS" remplacé est cette horreur de la nature de OS20/0S21, reliques d'un autre temps. 35% moins cher.

Ensuite, parlons Android, alors qu'une "alliance" Google-Intel prend implicitement forme avec la décision par WindRiver de lancer une offre comerciale Android. A considérer les concepts de programmation mêlant java, html et javascript, je reste quelque peu dubitatif. Et l'API mouvante autant que la dépendance au SDK ne me rassure guère. Pis encore, la licence permissive Apache recèle de désagréables surprises, et c'est à se demander au final quel est donc ce bordel made by Google que l'on hérite là. Quant à Chromium, machin plutôt mal défini déjà sujet à bouts de scotch, la cible visée serait finalement assez réduite -- bien plus en tout cas que ce que prés(s)entait ARM sur son salon. J'ai peur de faire une présentation trop pessimiste, et invite donc à la lecture des différents (et fournis) articles ; pour ma part, j'en garde une impression de prudence à montrer vis-à-vis de ce nouvel engouement. Peut-être deviens-je moi aussi un vieux barbu ayatollah sur les bords, allez savoir.

En tout cas, côté interface web, la fonera 2.0n basée sur du OpenWRT est très sexy. Et le Nokia N900, sur Maemo5, est absolument formidable, avec cependant deux bémols : la weberie est basée sur un navigateur mystère (Firefox allégé ?) et un Firefox-bloatware, et le framework n'a pas encore migré sur Qt, donc toujours du GTK. N'empêche, bavez donc comme moi sur les vidéos, c'est impressionnant, et l'ouverture de la plate-forme est bien plus assurée que lors des premières releases en 2006 (quelle galère pour trouver le code !), avec des applications par lots qui ne nécessite pas d'avoir un avocat (Adroid) ou une carte blueue (iPhone) sous la main. Bref, si Google n'avait pas un gros rouleau-compresseur commercial, je parierais plutôt sur Maemo6 avec Cortex-A9 (pour l'instant, le N900 est sur du A8, il rame manifestement moins qu'un iPhone, mais ce n'est pas encore parfait à voir les vidéos de tests indépendants) avec une sortie d'ici 9 mois. Mais avec le peu de vague soulevée par un concurrent pourtant très sérieux au machin d'Apple (à l'intégration toujours très réussie, mais aussi pénible à délocker qu'un Android à rooter : ce n'est pas ouvert pour un sou !), je crois que je vais redevenir pessimiste...  :/   (d'un autre côté, Nokia reste leader et compte remplacer définitivement sa branche haut de gamme avec le N97 par du Linux/Maemo, sachant que son public habituel n'est pas forcément habitué à verser 650€ pour un téléphone ; il faut aussi considérer que la concurrence ayant été longtemps dépendante de Symbian -- quand bien même Motorola et RIM proposait des alternatives sérieuses --, un détachement de Nokia pour autre chose, même moins libre, mais "apparemment indépendant" pourrait se comprendre)

Pour finir, et parce que c'est Noël, un excellent article de démystification des SSDs, qui dépasse un peu le cadre "NAND avec contrôlleur" pour parler Flash d'une manière plus générale.

mardi, décembre 22 2009

ARM European Technical Conference 2009

Comme l'année dernière, et certainement celles d'avant (j'avoue ne pas connaître les origines exactes de l'événement), avait lieu en ce jeudi 10 décembre passé l'ARM European Technical Conference (AETC pour les intimes) 2009, au même lieu que l'année dernière, CAP15 près de la tour Eiffel. J'arrive très tôt (pour moi) mais manifestement, beaucoup de monde a son rythme de vie câlée sur nos amies aviaires, et la grande salle de conférence est déjà bien garnie. On y parle Anglais, comme toujours dans les conférences de cet événement réellement européen -- comprendre qu'il y a quantité d'Allemands (patron, ma formation de langue !), d'Anglais, et quelques Russes --, mais la langue véhiculaire laisse plus souvent que l'année dernière au vernaculaire sur les stands du forum voisin -- je n'ai pas pris de photo, mais l'organisation était tout aussi semblable qu'en 2008. Pour les personnes présentes qui passeraient sur ce compte-rendu, puisque chez Anticyp on m'a dit être déjà venu me lire, et qui ne me remettrait pas, j'étais tout de gris et violet vêtu, un chapeau sur la tête (quelques commentateurs, mais pas des plus fins, s'inquiétant régulièrement sur ce point).

Comme je ne pense jamais trop aux mékeskidi, et que chez Linagora, certains administrent des réseaux ou mettent en place des messageries, bref n'ont rien à voir avec l'embarqué mais trouvent peut-être ma prose intéressante, je rappelle donc que ARM est la société anglaise à l'origine du microprocesseur du même nom, que l'on trouve décliné sous différentes gammes depuis une vingtaine d'années dans tellement d'appareils embarqués, qu'il ne fait aucun doute qu'ils dominent le marché (et x86/Intel, me direz-vous ? Comptez le nombre de téléphones portables par foyer ; puis le nombre d'ordinateurs ; vous y êtes). ARM possède cependant une spécificité : ils ne sont pas fondeurs, comprendre qu'ils ne vendent pas directement des puces ni aucune sorte de hardware, mais seulement de la R&D pure, autrement dit pour les fondeurs que sont ST, NXP, TI ou ATMEL, pour parler des présents, il s'agit de récupérer des plans -- pour simplifier. La cible est néanmoins déterminée : il ne s'agit pas de grosses infrastructures réseautiques (plus propices à être sous PowerQUICC/PPC voire x86), ni de microcontrôleurs extrêmement simples de style PIC/68k (qui cèdent, certes, devant le Coldfire, dont on peut se demander si ARM ne gourmande pas par anticipation les parts de marché avec son dernier né, le Cortex-M3, mais je m'avance), mais il n'empêche que d'une cible de CE (Consumer Electronic), représentée sur le diagramme final par le "1 milliard de téléphones", la compagnie lorgne du côté des nouveaux mini-PCs (tout une histoire marketting, ce machin-là) avec 100 millions d'unités visées, et vers les "specialized devices" à hauteur de 10 milliards d'unités (une paille). Le démarrage en flèche du Cortex-M3, tout minuscule qu'il est (visible sur l'un des nombreux stands éparpillés d'ARM), destiné par exemple à être embarqué dans des montres, tendrait à soutenir cette espérance.

Malgré la crise, ARM va bien, et le fait savoir (quand bien même il n'y avait plus de fontaine au chocolat cette année -- mais le buffet était excellent, mes compliments au traiteur et à son équipe dévouée). Une slide montrant le foisonnement des microprocesseurs disponibles il y a une bonne quinzaine d'années, et de ce qu'il en reste en comparaison, fait l'impasse sur SH4 (pourtant très présent dans les STB et autres lecteurs en tout genre), sur SPARC (pourtant certaines archi intéressent le spatial -- ok, ça n'a pas empêché les CPUs de Thomson de défunter) ou sur PPC, montrant une promptitude à enterrer la concurrence qui m'a quelque peu amusé -- je n'ai pas eu le temps de demander sur le stand de ST ce qu'ils en pensaient... En fait, le concurrent principal Atom n'a pas droit de cité non plus. Et ça c'est vraiment méchant -- et pas forcément pertinent, mieux vaut prendre l'adversaire à bras le corps que de l'ignorer, en tout cas dans la bataille on sait où mon coeur va.

Il est beaucoup question de communauté, non pas libre mais autour de ARM, naturellement : par exemple, pour l'extension 3D Mali, le site malideveloper.com partage les informations plus simplement entre développeurs (le marché étant assez récent de ce côté, mais néanmoins à pente rapide comme on peut le constater en considérant les consoles de jeu video portables ; le vrai challenge pour ARM est clairement désigné : le multimédia et notamment la télévision, en concurrence frontale avec SH4) ; on évoque mbed.org, "rapid prototyping for microcontrollers" ; ou encore le projet plugcomputer, qui se donne d'agréger (le concept est un peu flou, je trouve) les idées de serveur miniature de "domotique" (le mot est devenu quelque peu tabou, à force), dans le style DLNA, connectivité centralisée à but applicatif, etc. En fait, remplacez le fameux "developers developers developers" de Ballmer par "community community community" : c'est le nouveau maître-mot. Désenclaver le développeur, mais aussi le décideur (cf la multiplication des blogs pro), voilà une idée qui a l'air aussi bête qu'évidente, mais qu'aucun ne s'était attelé à mettre en oeuvre jusqu'à présent. Si l'on considère la récente communauté autour de Montavista (meld), on voit bien que le mouvement est amorcé : c'est à qui fédèrera le plus autour de lui, en offrant comme valeur ajoutée un partage de connaissance. Ça ne vous dit rien, comme fonctionnement ? Linux embarqué, ce n'est pas seulement un OS gratuit qui entre dans le paysage, je ne cesse de le répéter, c'est l'arbre qui cache la forêt du libre dans l'embarqué, techniquement et dans la pratique : c'est une nouvelle façon de penser, de concevoir, par le partage (d'information pour le moment, mais le code commence à venir, voyez la suite), mot totalement inconnu jusqu'alors dans le monde industriel. Ça fait du bien.

Linux est un mot qui revient souvent, et que l'on trouve décliné sous les formes "Ubuntu" ou "Mozilla" (bon, on sait ce que j'en pense...). Mais ce qui revient encore plus, c'est Android, et Chrome. Le premier, on commence à le connaître, son succès, surtout depuis la dernière version, est impressionnant, et il ne faut pas s'étonner de le voir partout où l'environnement est pensé pour du fenêtrage simple, c'est-à-dire une application à la fois sur l'écran. Pour le multi-fenêtrage, ARM nous parle de Chrome : et là, j'avais raté un épisode. ChromeOS a été montré le 19 novembre dernier, et en fait, c'est l'une de mes prophéties qui se réalise (je suis meilleur que St-Jean le Baptiste, d'une manière générale, je fais donc attention à ne pas perdre la tête) : la migration de l'OS vers du tout-web, ie l'interface graphique utilisateur entièrement conçue à base de technologie web de type html/javascript, rendues par un navigateur puissant mais léger. C'est une question de logique : le but (dans lequel s'inscrit parfaitement Linux, qui est d'ailleurs le kernel sous ce ChromeOS) est d'abaisser le ticket d'entrée dans le monde de l'embarqué, et de le rendre plus fonctionnel ; fini les interfaces toutes pourries et obscures en assembleur et en frame buffer ! La montée en puissance (phénoménale) du hardware pour une consommation en énergie toujours meilleure sert exactement ces intérêts. À travers le logiciel, c'est l'utilisateur qui est remis au centre du problème. D'où la conclusion que je retiens : "Software is all about now", "software ecosystem decides !". La fin annoncée de l'électronicien raté, et l'arrivée du monde logiciel en position de force.

Après toutes ces bonnes nouvelles, place est laissée pour l'orateur suivant, qui nous parle d'un consortium rapidement identifié par mes soins comme du lobbying de hardeux, ce qui ne m'intéresse guère (on sait le milieu assez doué en la matière, parfois trop). Je migre donc vers les stands : passage chez -- ne riez pas -- Windows Embedded Business Group Microsoft France (toujours sur son WinCE 6.1, qui commence à dater, mais se voit affublé de service packs -- c'est une manie !), qui me donne gentiment une version de Windows Embedded 2011 (3cd : 32bit, 64bit et le toolkit), qui contrairement à XP standard est encore supporté quelques années ; entretien chez Montavista, qui distribue de la belle documentation sur son tout nouveau MontaVista Linux 6 (j'ai raté Maxime Petazzoni, dont je n'ai été au courant de la présence qu'à son appel en fin de journée pour gagner une mini-console de jeu, mais il était déjà parti !) ; et puis Ubuntu, qui présentait un petit PC de poche à clavier et écran tactile (dans les deux cas, mes doigts de pianistes étant déjà un peu trop gros : c'est pour le marché japonais, aussi...), de chez Sharp il me semble, sympathique mais à mon avis beaucoup trop geek, il n'y a qu'à considérer les parts de marché du N800, plus sexy quoique moins fonctionnel (mais plus réactif, en échange) -- côté software, en revanche, l'intégration est très bonne, mais firefox bouffe presque toute la mémoire, le menu convivial sur le bureau buggue encore un peu (ce n'est pas une version définitive qui était montrée), et parfois la machine freeze...

Tout le long de la journée, il y a aussi les sessions de conférences, quasiment toutes données par des gens de ARM, ou plus vastement de Keil, la partie software rachetée il y a maintenant un bon bout de temps : il ne faut alors pas s'étonner que lors du track32 "Advanced Debug and Optimization of Cortex-M processor-based Systems", on ne parle uniquement de la sonde J-Tag et des outils Keil, et nullement du JtagX ou autre sonde WindRiver que l'on vante tout aussi bien sur les stands d'Anticyp ou de Neomore. J'avoue sur la journée avoir moins assisté aux conférences que l'année précédente, ayant privilégié cette fois les stands -- sans pour autant avoir pu tout visiter, de ce qui aurait pu m'intéresser. C'est ainsi que je découvre MVD Training, dont le site affreux prouve bien qu'il s'agit de barbus de l'embarqué très bas niveau, et si l'on se fait concurrence sur les formations Linux embarqué/drivers, le reste est tout à fait complémentaire (notamment en terme de programmation), et l'offre assez unique à ma connaissance sur les formations très bas niveau (microprocesseur particulier, programmation, et au milieu : VHDL) me fait penser que mon DIF est plein à craquer (message subliminal).

Et puis je passe beaucoup de temps sur le stand Texas Instrument (Angleterre et Allemagne), pas seulement parce qu'ils possèdent la plus charmante des communicantes qui m'ait été de rencontrer (ciel, une Anglaise blonde -- immigrée en Allemagne --, je n'aurais jamais cru, si on peut lui donner mon URL, puisqu'elle doit manifestement savoir lire le Français, que l'on n'hésite surtout pas !), mais parce que ce sont des personnes extrêmement agréables et Elizabete De Freitas (TI serait-il un avant-goût du paradis ? Des femmes aussi sympathiques que belles...) ne met pas longtemps, alors que je lui explique un projet, pour m'offrir une beagle board ! (que j'ai failli me faire dérober à la station Tour Eiffel, mais après avoir piqué une gueulante monumentale sur les pickpockets, ils ont bizarrement fini par retrouver mon objet) Autant dire que ce geste me touche beaucoup, et à présent, je cherche du temps pour m'impliquer dans le support de la bête, le problème principal étant pour le moment de chercher comment en sortir une console (c'est très bête, mais brancher un video proj sur la sortie S-Video me semble un peu compliqué pour bosser, et monter un RS232 va nécessiter un passage en magasin d'électronique et une séance de soudage : autant dire que ça attendra après les fêtes, puisque je serai... en Allemagne).

J'arrête ici mon compte-rendu par anticipation de bonne résolution pour l'année prochaine : faire plus synthétique. Et puis surtout, parce que je suis en vacances dès demain. Enfin, parce que je n'ai pas encore reçu les slides (par mail, nous a-t-on dit, attention, ça veut dire "courrier" en anglais -- en ricain, ça aurait donné "snail mail", désambigüisé --, on se laisse toujours avoir...  :)   ), de fait il est plus difficile de tout se rappeler (et comme l'année dernière je m'étais ruiné la santé à prendre un maximum de notes, alors que j'avais ensuite reçu le CD complet...). Bref, je vous souhaite de bonnes fêtes, plein de beagle boards sous le sapin (non, je ne suis pas sponsorisé, juste un peu corrompu -- et puis la concurrence n'est pas facile à débusquer, alors même qu'on m'en a parlé), et j'espère bien me rendre à l'AETC 2010 l'an prochain !

jeudi, novembre 12 2009

conférence Paris8, deuxième

Pile poil un an après ma conférence à Paris 8, me revoilà au même lieu, toujours sous le regard d'Isis Truck, et celui d'une assemblée assez nombreuse et hétéroclite. Début de conférence retardé pour cause de câble manquant (ma faute, c'était dans mon sac, en plus...) et de projo à aller chercher à l'autre bout de St-Denis l'université, j'aurai tout de même bien parlé deux bonnes heures, ce qui me fait penser que je devrais peut-être songer à une version "light" -- pas gagné. Voici en tout cas les slides de la conférence Paris 8 2009 remis à jour (c'est-à-dire sans coquille).

Encore une fois, je remercie l'équipe de Paris 8 pour m'avoir si sympathiquement accueilli.

jeudi, octobre 15 2009

conférence April/Eyrolles : le debrief

La conférence April/Eyrolles de samedi dernier a finalement été bien remplie en un temps record (on peut l'avouer, maintenant : il n'y avait aucun inscrit le samedi précédent !), grâce à une politique d'annonce active -- notamment sur Toolinux, merci au patron. Entre quarante et cinquante personnes, à la louche (je n'ai pas eu de stat' officielle), un bon tiers d'amphi rempli en tout cas. Il paraît que c'était très bien, avec une durée de deux heures au lieu d'une annoncée -- non, les compliments n'étaient pas obligatoires pour accéder à la buvette. Ravi aussi de la présence d'un ancien chef de projet, et de personnes qui avaient déjà assisté à ma conf' Parinux très similaire, ou même à mon cours complet à l'INSIA : au moins, on sait qu'on est apprécié, pour se faire ainsi des redif'.

Comme promis, voici donc conférence April/Eyrolles, mises à jour pour éliminer les deux ou trois coquilles trouvées. Jean-Luc Ancey de Parinux a aussi capté l'ensemble de la conférence, à l'exception des cinq premières minutes -- mais c'est bien connu, ce qui compte, ce sont les cinq dernières. Problème, je ne sais pour l'instant pas où l'uploader, je mettrai à jour ce billet dès qu'une solution convenable sera trouvée.

Pour finir, si je suis désolé pour la démonstration abandonnée (faute de câble RS232 femelle-femelle : après une bataille de trois heures à en trouver un, pas de bol, il ne marchait pas...), même si de toute façon on aurait manqué de temps (il fallait rendre l'amphi), vous pourrez vous référer aux deux billets de présentation du matos et de portage de Linux sur ce blog. Vous avez aussi le droit de lire le reste, après tout -- notamment les comptes-rendus de RTS 09 et des assises franco-allemandes de l'embarqué, puisque j'y ai fait allusion.

Je remercie évidemment la librairie Eyrolles et l'April pour l'organisation (même si c'était bénévole, faudrait pas que ça devienne une habitude, le libre n'est pas gratuit !  :)  ), notamment Eva Mathieu de l'April qui a même été imprimer des flyers de bibliographie, avec une page web de CR sur le site de l'asso.


PS: après écoute rapide du fichier de J-L, je tiens à m'excuser :
   * de bouffer des mots de temps en temps (mais je me soigne)
   * de dire "bein" et "bah" trop souvent
   * auprès des Indiens et des développeurs Java    (en fait, non)

mercredi, septembre 23 2009

conférence Eyrolles à venir

      Oyez oyez,

samedi 10 octobre 2009 aura lieu à 15h une conférence de votre serviteur sur le thème "Linux Embarqué", pour le compte de l'APRIL, sur hébergement d'Eyrolles. L'annonce complète se trouve sur l'APRIL. Attention, une erreur s'est glissée : c'est bien à l'ENSTP, qui prête son grand amphi, juste au dessus de la librairie Eyrolles de St-Germain (métro Maubert-Mutualité) qu'il faudra se rendre.

Réservation : conferences@eyrolles.com, tél. 01 44 41 11 31, ou à la librairie.

Évidemment, c'est galère, ce qui expliquerait peut-être qu'il y a aussi peu de personnes qui se sont déjà ainsi dénoncées (ou peut-être que cette remarque ne concernait que le premier de volet de conf' du 3 octobre, en concurrence avec l'OpenSource machin de la cité des sciences, ce qui n'est pas bien heureux). Mais essayez de le faire tout de même. Du moins, si vous souhaitez m'entendre.


update: attention, l'adresse d'inscription est "conference@eyrolles.com", sans "s" à "conference", et il vraiment, vraiment important de s'y inscrire, quitte à préciser que l'on n'est pas à 100% sûr de venir.

mercredi, août 19 2009

2ème Assises franco-allemandes de l'Embarqué 2009

Plus de deux mois sans bloguer, et pourtant, chers lecteurs, je vous devais un long commentaire depuis un bon bout de temps. C'est qu'entre les projets qui font courir, et les vacances pour compenser (que la nature est bien faite !), on ne voit guère le temps passer. L'exercice de ce compte-rendu détaillé et commenté va donc se faire avec mes notes plus qu'avec des souvenirs très précis, je m'excuse de fait par avance pour les erreurs qui pourraient s'y glisser, et invite à les signaler en commentaires. Voyageons donc quelque peu dans le temps : mardi 9 juin 2009, 10h du matin ; et dans l'espace : ministère de l'économie, de l'industrie et de l'emploi, centre Mendes France, tout au bout des bâtiments de Bercy. Un site web, un temps trop court pour s'inscrire -- pas très grave, "Linagora", annoncé-je pour la création du badge, et alors que j'épèle par réflexe, "c'est bon, Zapolsky, on connaît !" (ça fait plaisir).

Les assises franco-allemandes de l'Embarqué fêtaient là leur second anniversaire ; l'événement est jeune, il a pour but de renforcer les liens industriels et commerciaux afférant au monde de l'Embarqué entre les deux pays leaders en Europe -- et fort bien placés dans le monde. L'Allemagne est le pays des plus au point sur ce secteur, il n'y a qu'à arpenter des salons ou consulter les chiffres pour s'en apercevoir ; héritage d'une tradition industrielle, et d'une culture de la recherche et du développement certainement. La France en réalité est moins au point, mais dispose d'une industrie militaro-industrielle génératrice de "dynamisme" -- même s'il est artificiel, puisqu'essentiellement soumis au bon vouloir du ministère de la Défense, qui passe commande et "investit", pour aller vite, les retombées se faisant sentir jusque dans les branches civiles ensuite. Il faut cependant bien arrêter le sujet principal : il s'agit avant toute chose de parler informatique, ce qui en l'occurrence intéresse au plus haut point Linagora (ce n'est pas comme si l'on était entre hardeux). D'ailleurs, les deux partenaires de chaque côté du Rhin sont d'un côté le Syntec informatique, et de l'autre BITKOM, qui pour ceux qui ne connaîtraient pas est l'Association Allemande pour les Technologies de l'Information, des Télécommunications et des Nouveaux Media, représentant plus de 1300 entreprises en Allemagne, dont 950 membres génèrent un CA de 135 milliards d'Euros.

Les participants sont accueillis par le p'tit dej' habituel (tellement que j'ai pris le mien chez moi, zut, j'aurais dû y penser, voilà une occasion de moins de rentabiliser mes impôts), et l'amphithéâtre consacré est très agréable (désolé, j'ai oublié de prendre des photos). Je retrouve un ami (qui est celui-là même qui m'a appris l'existence de l'événement) en la personne de Patrick Foubet (qui tient sa propre boutique), par ailleurs collègue professeur à l'INSIA (et voisin dans le civil, c'est dire l'accumulation des coïncidences, puisqu'il enseigne Linux Temps Réel, et moi Linux Embarqué). Nous commençons par une allocution, non pas par Luc Châtel, qui était encore à cette époque le secrétaire d'État chargé de l'Industrie et de la Consommation, auprès de la ministre de l'Economie, de l'Industrie et de l'Emploi, en plus d'être porte-parole du Gouvernement (mais pas de l'Industrie cette fois), mais par l'un de ses hauts-fonctionnaires de cabinet, le conseiller technique Michaël Reynier. Las, n'est pas politique qui veut, le discours est poussif (et plutôt creux), et l'on manque à plusieurs reprises de sombrer. Heureusement, ça ne dure pas bien longtemps, et Eric Bantegnie prend la parole à 10h30 (le planning est respecté à la minute près toute la journée, saluons la précision !), pour nous exposer la "feuille de route franco-allemande pour le développement des Logiciels & Systèmes Embarqués".

Le Président du Comité Embarqué de Syntec informatique (je note le poste pour une future carrière ; il est PDG d'Esterel, tout de même, ce n'est pas gagné) est un bon orateur, et nous présente le CG2E, club de donneurs d'ordres, regroupant le pôle de compétitivité System@tic, l'Aerospace Valley, Minalogic, ainsi que Image et réseaux clusters. Il nous parle de CTB, qui mis à part son homo-acronynimie malheureuse, signifie "Common Technical Baseline" (for embedded systems), et qui à travers son site web nous fait connaître l'avancée des travaux entre grands pontes (Français, Allemands et Néerlandais très essentiellement) pour se mettre d'accord sur un langage commun de spécifications de leurs besoins. Comme un petit peu à chaque fois, le site est moche (sans compter les redirections internes vers soi-même mais avec une racine d'url différente, comme on aura pu constater avec le lien précédent), plutôt vide, et finalement, il reprend juste ce qui existe déjà -- c'est-à-dire la mode des empilements de briques, avec ou sans flèches, qui sont souvent plus une vue de l'esprit qu'un reflet exact de la réalité, noterons-nous narquoisement. Mais il faut saluer l'effort (c'est nouveau dans le métier, qui a su conserver un esprit "maison" de réinvention de roue perpétuelle remarquable).

Son alter-ego germanique Knut Degen, présent du Comité Embarqué de BITKOM, nous parle un peu en français (et surtout en anglais, de mémoire), sur un autre genre plus avenant. Il lance à 10h50 la présentation et restitution des travaux du CG2E, "Club des Grandes Entreprises de l'Embarqué", par Dominique Potier (secrétaire général) et Jean-Claude Derrien. La CG2E comporte actuellement 25 à 30 entreprises, nous apprend-il, des petites, des PMEs et des grandes entreprises (surtout, à mon avis, avec en plus les moyennes débrouillardes habituelles que l'on retrouve un peu partout), et reste ouverte à l'adhésion de nouveaux membres. Son président (temporaire -- peut-être ne l'est-il déjà plus ?) est Dominique Vernay. Concernant l'administration et les finances, c'est le club des partenaires de la FIEEC qui s'en charge. Sont cités aussi parmi les importants Claude Lepape de Schneider pour Minalogic et Gérard Lardier d'Airbus pour l'Aerospace Valley.

Il existe différents groupes de travail : les normes et standards (J-C Derrien de SAFRAN et Eliane Fourgeau de Geensys), la productivité/qualité et le dimensionnement des enjeux économiques ; plus tard on évoquera la SG2 pour la sûreté de fonctionnement. Pour qui se rappelle du salon ARM, nous sommes dans le vent, les préoccupations sont habituelles. Notons que le libre dans l'embarqué s'inscrit exactement dans ce genre de questionnements : l'ouverture des standards (un point sur lequel j'insiste toujours en cours, qui pourtant n'a jamais eu à chercher partout un chargeur pour sa version de téléphone portable ? Ça en est d'ailleurs enfin fini de ce temps, le micro-USB est devenu la norme auto-imposée), la réduction du Time to Market, ou la qualité et la pérennité du code. D'ailleurs, pour qui se remémore les sujets abordés de manière assez récurrente au dernier salon RTS, la sécurité de fonctionnement dans le libre est un point épineux auquel on pense de plus en plus à s'attaquer. Sur tous ces sujets, Linagora a clairement une carte à jouer, par sa connaissance du monde du libre qui l'avantage (ouf, je n'y suis pas allé pour rien :)  ).

À 11h20, Knut Degen, président du comité embarqué de BITKOM, présente une restitution de l'étude BITKOM sur le marché allemand de l'embarqué. Autant dire que ce genre de prise de température de fort bonne qualité est toujours très appréciable. L'industrie embarquée en Allemagne représente un chiffre d'affaire de 19 milliards d'Euros, répartis selon 15 milliards pour les industriels, et 3,7 milliards pour les éditeurs. Si le hardware est environ deux fois plus important que le software, la prestation de service représente sur le camembert de répartition 44% de cette masse financière ! Les télécoms y sont bien plus importants que l'automobile, largement devant la défense (pour d'évidentes raisons) ; ceci est très différent de la France, précise-t-on. On note que l'automobile est tout de même au final le plus important, car en bout de chaîne (c'est de là que partent les commandes). 70% du CA est interne, 17% de l'UE. L'étude s'est aussi intéressée aux problématiques actuelles qui occupent les industriels : la réduction du TTM est bien devant la qualité, suivie des standards et de la complexité, assez devant la sécurité, plus loin l'OpenSource, et enfin en bout la chute des prix. Les secteurs de croissance attendus sont essentiellement le médical (très en vogue, nous le verrons d'ailleurs plus tard), la communication, les machines (spécialité très germanique) et l'électronique de transports (hors l'automobile, apparemment).

On remarque qu'il y a malheureusement peu d'Allemands cette année dans la salle -- l'année dernière, bien du monde avait les écouteurs de traduction sur les oreilles, me confirme mon voisin. On espère qu'il y aura en revanche des français à Francfort (c'était en juillet, apparemment, des nouvelles ?). Et l'on attire l'attention sur l'Embedded World à Nuremberg -- qui est il me semble le plus grand salon mondial du genre. À 11h40, séance de questions, on apprend que l'adhésion à la CG2E coute 1000€ par an, soit une somme assez faible dans l'absolu mais suffisante pour faire un tri à l'entrée, et qui donne toujours à mon avis assez de budget pour payer le stagiaire qui a conçu le site web, puisqu'en terme de fonctionnement l'association ne doit pas avoir grande dépense à faire. On se plaint que pour le médical, le marché est clos et l'on manque d'interlocuteurs : c'est tout à fait vrai. Le SYNTEC permet une comparaison avec nos voisins outre-Rhin en dévoilant qu'il y a deux fois plus de prestations dans notre pays, et que les éditeurs (hors électronique) génèrent un CA de 4 millions d'Euros. La crise va avoir comme impact de réduire une croissance de 12% à 5%, mais les chiffres sont avoués (ou désavoués) comme étant peu précis. On note cependant une inertie du marché de l'embarqué (bien propre au milieu industriel) : c'est mal parce que les adaptations rapides sont difficiles, c'est bien parce que ça empêche de tomber dans les affres de l'économie mondiale. L'Allemagne continue ainsi de vouloir embaucher massivement, ils leur manqueraient 200 à 250 mille ingénieurs !

Justement, à 11h50 est prévue une conférence sur les filières de formation aux métiers de l'Embarqué : "Adéquation entre les besoins en compétences en informatique embarquée et l'offre de formation ?", se demande-t-on. C'est Jean-François Lécole, PDG fondateur de Katalyse qui présente l'étude, menée conjointement avec Merlane pour le compte de l'OPIIEC (Observatoire paritaire des métiers de l'Ingénierie, de l'Informatique, des Etudes et du Conseil, on peut trouver les liens vers le rapport sur la page liée du CICF). Des chiffres : 220.000 emplois, répartis pour 65% chez les industriels, 29% chez les prestataires et 6% chez les éditeurs ; un besoin de 34.000 emplois supplémentaire (en solde net, c'est-à-dire corrigé des départs à la retraite) en cinq ans se fait sentir, pour une progression de 46%, et une répartition de 19.300 (en plus de 26.000 remplacements) dans les SSII et 14.600 (en plus des 48.000 remplacements) dans l'industrie ; 85% des profils sont généralistes, à qui l'on demande des capacités d'évolution en compétences techniques, d'adaptations importantes, et de gestion de projet. Aussi, les formations disponibles sont triés selon trois profils : 500 à 700 nouveaux entrants par an ont bénéficié d'une formation dédiée (260 à 420 en bac+5) ; 17.700 par an (dont 7.700 en bac+5) on suivi un cursus généraliste avec "coloration" embarqué ; et enfin 28.000 sortent d'un cursus scientifique bac+5 (comprenant des physiciens de cursus universitaires par exemple).

L'offre de formation est encore très jeune, et il existe un problème de prévision sur 6 ans ! En tant que professeur et ancien élève, je peux confirmer que le maintien d'une spécialisation en informatique embarquée au sein d'une école, surtout au regard des difficultés spécifiques de la filière (professeurs difficiles à trouver et à faire venir, très grandes variétés des matières souvent très/trop techniques donc spécifiques, problématique de la mise en pratique, et pour finir... très peu d'étudiants s'inscrivent spontanément dans cette spécialisation exigeante), est un problème récurrent. Prévoir une formation qui soit assez générique pour préparer à l'acquisition de technologies non encore existantes au début du cursus, tout en maintenant assez de cours techniques poussés afin de permettre une entrée rapide et sans douleur sur le marché du travail n'est pas de tout repos. On constate aussi, reprend notre conférencier, une forte évolution, des liens avec les laboratoires et une mutualisation. L'offre académique reste cependant pauvre, mais il y a peu de demandes aussi ; la formation continue, quant à elle, marche mieux dans les grandes entreprises.

Les besoins sont pourtant pressants : 12.800 travailleurs pour 3.400 non-ingénieurs, et 9.400 ingénieurs. La demande constatée y correspond à peu près : 12.500 pour 3.900 non-ingénieurs et 8.600 ingénieurs. À cela s'ajoutent 29.750 profils "expérimentés", pour arriver à un total de 42.500. La répartition selon nos trois critères précédemment énoncés se fait alors selon : 20% de formation dédiée, 70% de "coloration" et 10% de non-spécifique. L'avantage des ingénieurs se situe dans la gestion de projets, les langues et la meilleure adaptation au monde du travail que les cursus universitaires. On soulève enfin un dernier point, et non  des moindres : le problème d'image pour les étudiants. Il existe aussi un manque de visibilité des formations (y compris pour les DIF, je rappelle au passage que Linagora propose des formations à Linux Embarqué et Linux Temps Réel, ainsi qu'aux sujets afférents) : une page dédiée sur Internet devrait être créée. On remarquera cependant que l'on n'est pas encore sorti de l'auberge : sans aucun suivi par mails à la suite de ces assises, je trouve les slides de cette conférence sur le site gouvernemental de la partie "technologies de l'information et de la télécommunication" du MINEFI, qui arrive à me faire trouver une référence plus longue sous forme de compte-rendu (non relié au site principal de l'événement, mais qui y renvoie tout de même), qui lui-même ne référence apparemment pas les slides précédents. Bref, aucune idée d'où en est la création du site web sur les formations...

La séance des questions/réponse ne s'attarde pas trop, et en fait un certain nombre de personnes veut plutôt parler de manière informelle avec les intervenants. C'est ainsi que je m'entretiens quelque peu de mon expérience de formateur (d'ailleurs, des retours d'expériences concrets manquaient quelque peu à ce niveau, même si l'on n'avait pas le temps -- je vais regarder le rapport complet plus en détail), et je soulève deux points fondamentaux se rejoignant qui n'ont pas été abordés : pourquoi un étudiant choisirait-il une filière embarqué hautement complexe pour être amené à travailler à Vélizy (conditions de travail quasiment toujours dégradées, j'ai tout de même bossé six mois en face d'un mur, la fenêtre la plus proche à 50 mètres non visible, à Thales Colombe) payé au lance-pierre (c'est un fait, les salaires sont inférieurs aux autres spécialisations techniques, et je ne parle même pas à compétences égales), alors qu'il pourrait se caser pépère à la Défense pour faire du Java bidon dans une banque ? Sans parler des perspectives d'évolution de carrière et de la valorisation du travail (on croît que faire des satellites est a priori très valorisant, mais dès lors que l'on se retrouve comme une toute petite pièce d'un très grand rouage, quelle est la satisfaction réelle ?). Certes, la tendance est à l'amélioration du métier (ou à la dégradation des autres ? Pensons notamment à la crise économique qui a affecté les banques, donc nos adeptes de l'IHM Java), mais c'est ici que se situe le problème, et la forte demande en compétences très variées et techniques (on nous demande de savoir aussi bien faire de l'assembleur que de l'interface graphique...) n'aide pourtant pas la hausse des salaires dans le milieu ; ce n'est pas la peine de chercher longtemps ailleurs (le "ailleurs" qui peut être aussi la "pression" du métier : risquer de planter un avion est autre chose que risquer de planter une appli web).

Je m'entretiens aussi un peu avec un représentant de Wind River (il a remarqué que j'étais un peu partout, avec mon chapeau, pratique), qui a lui aussi des problèmes de visibilité sur les formations (au passage, je parle rapidement du rachat de la boîte par Intel, toujours sous l'émotion). Et puis c'est l'heure de partir à la chasse au fromage, ce qui est certes fort bon (surtout si l'on aime, pour les autres il y a du gâteau au chocolat), mais qui ne m'aurait pas semblé forcément très adapté pour les rencontres de visu a priori (admirez ce déploiement d'euphémismes). Le "networking" est en effet prévu dans la pause 12h30-14h00, mais je n'ai pas eu l'impression que les rendez-vous formels, à prendre d'avance sur le site web consacré, ait eu un succès énorme. Pour ce genre d'événements, il faut inciter au brassage, et de ce point de vue-là, l'événement a quelque peu péché. Les deux ou trois stands de partenaires, Sysgo à l'entrée, et de mémoire Geensys et Microsoft, n'accueillaient pas vraiment foule, tandis que leurs animateurs étaient partis directement au contact -- laissant bien souvent le stand vide. J'y reviendrai.

La reprise se fait sur les Trophées de l'Embarqué 2009 (par Jessica France), selon cinq catégories : l'Embarqué critique, l'Embarqué grand public, le capteur embarqué, l'Embarqué communicant et les Technologies de l'Embarqué. On en parle suffisamment dans les comptes-rendus officiels pour passer rapidement dessus, tout en saluant les mérites des gagnants (et des perdants...). À 14h45, il est temps de présenter rapidement le "livre blanc des systèmes embarqués"  (téléchargeable là), par Eric Mittelette, responsable du groupe de travail associé. La plaquette nous dit : "le Comité Embarqué de Syntec informatique, publie un Livre Blanc s'adressant au grand public qui illustre de manière concrète le monde des Systèmes Embarqués". Il a cette formule malheureuse d'entrée : "faire connaître notre jeune industrie", qui me laisse pantois avec mon ami, d'une vingtaine d'années plus âgé que moi, et d'ailleurs on retrouve bien en introduction du livre que l'informatique embarquée aurait moins de 20 ans. Il ne faut pas chercher bien loin pour déclarer que non, l'informatique embarquée est largement plus âgée, et tout dépend de la définition que l'on retient, apparaît même avec l'informatique tout court.

Le document d'une vingtaine de pages est clairement orienté très grand public, et avant un exemple tiré de la vie courante de confrontation à notre type de technologie, Eric Brantegnie fait justement remarquer que "paradoxalement cette industrie est peu connue du grand public, des décideurs économiques et politiques, des étudiants et du monde de l'enseignement". Une raison à cela selon moi : l'inculture technologique ambiante, qui associe à peu près tout ce qui existe à une aura de magie mystique complexe à appréhender. Il y a trois ans et demi, au salon du livre, je demandais à la personne sur le salon si elle savait sur quel système tournait le livre électronique (qui faisait alors son apparition) qu'elle proposait : "mais monsieur", me suis-je vu répondre, "c'est totalement électronique !". Idem à propos des téléphones portables, l'électronique a été assimilée, mais pas encore le fait que des personnes ont pu coder dessus, alors même que c'est là où se situe la véritable valeur ajoutée ! Bref, le livre blanc reste très général -- sans oublier cependant de mentionner les gagnants des trophées 2008, allez savoir --, et n'hésite pas à consacrer de larges pans à la "pollution et émissions de CO2" (page 17), au milieu d'une grosse tranche sur l'automobile, une interview de vrais gens de l'Embarqué dont on précise le nombre d'enfants qu'ils possèdent, et on nous tire même une larme à la page 22 ("tenir compte des considérations éthiques") : "[les logiciels embarqués] participeront ainsi activement au bonheur et à l'équilibre de notre société" ; avant de sauver les vieux (heu, personnes âgées), les logiciels embarqués, c'est avant tout du militaire. Bref, l'intention est bonne mais le résultat me paraît quelque peu bancal (comme on me dira que la critique est facile mais l'art difficile ; je précise donc que je me suis essayé à l'exercice et que j'ai produit un document interne -- orienté Linux, avec une vue d'ensemble du marché sous ce prisme --, que vous pouvez me demander, chers collègues -- pour les autres, envoyez un CV à notre RH, on étudiera votre demande). Peut-être est-ce dû à l'origine pas assez représentative des rédacteurs et intervenants -- mais comme Eric Mittelette est responsable groupe développeurs, division plate-forme d'entreprise Microsoft, j'ai peur que l'on m'accuse ensuite de partialité.  :)

15h00 : première table-ronde, "exemples de projets français, allemands ou franco-allemands dans les domaines du transport automobile et ferroviaire". Un animateur, Sylvain Dorschner, Délégué Général du pôle de compétitivité System@tic ; et différents intervenants, Christian Balle de Renault (directeur adjoint Electronique Avancée, membre du Bureau Exécutif System@tic, qui nous parle du système 4RD de la Laguna, qui est celui-la même qui a été primé peu avant, me semble-t-il -- il s'agit d'avoir 4 roues directionnelles), Louis-Claude Vrignaud ([ancien?] Président d'EICOSE, l'European Institute for Complex Safety Critical Systems Engineering -- voir ici aussi), Jacques Bercot (Valeo, directeur du centre pour l'Excellence Electronique du projet STOP&START -- la voiture s'arrête lorsqu'elle est à l'arrêt, si l'on me pardonne l'expression), et Daniel Cadet (Alstom Transport Technical, Directeur des relations extérieures -- ce qui est assez ironique, car il nous affirme qu'il est très heureux d'avoir échouer à faire parti de consortiums pataugeant dans la semoule à essayer de se mettre d'accord et de travailler ensemble, quand de son côté, Alstom a su faire progresser et réussir les même projets concernés tout seul et sans interférence extérieure). Une question du public porte sur la sécurité des automobiles : un intervenant répond que la certification sur automobile ne sera jamais poussée aussi loin que celle pour les avions ou autres transports en commun, pour une simple raison de coût-bénéfice, sachant que d'une part c'est quasiment toujours le conducteur qui fait la faute (on remarquera que de toute façon, lorsque l'électronique est en cause, le débat est toujours saboté, comme pour les régulateurs accusés ; quand on ne passe pas simplement sous silence les calculateurs de bord qui prennent feu chez Renault -- la faute à Siemens, avais-je entendu dire --, ou que l'on rappelle des milliers de voiture pour les patcher sans donner la raison exacte chez Peugeolt -- là encore, par des contacts, il semblerait qu'à un moment les portières automatisées avaient tendance à s'ouvrir inopportunément), et que d'autre part crasher un avion n'a tout simplement pas le même effet en terme de pertes humaines que planter une voiture ; c'était la minute de cynisme capitaliste (ce n'est pas péjoratif, mais enfin il est de bon ton de rappeler les fondamentaux économiques qui dirigent à l'industrie).

Au bout d'une demi-heure, c'est la pause café/networking (like we say in good French  German eerr), l'occasion de retrouver mon PDG, Alexandre Zapolsky, qui par une pure coïncidence (mais on avait répété la veille) se trouvait dans le ministère. Tandis qu'il va saluer le Syntec et autres très bonnes connaissances, je pars à la chasse aux contacts -- et tombe en premier sur mon ancien directeur d'étude de l'EPITA, avec qui je m'entretiens de la bonne évolution de la filière, surtout depuis qu'elle a absorbé une autre autrefois dédiée à la recherche. J'arrive à m'imisser dans une discussion (ça parlait des jeunes, coup de chance) et me fait un bon contact à la SNCF ; et par hasard, un universitaire de Nancy (je parle de la difficulté à mettre en place des TPs : leur professeur fait un séminaire d'une semaine, et le un jour est entièrement consacré à mettre en place la dizaine de postes, tandis que le TP prend la journée suivante). Du coup, j'arrive un peu en retard pour la seconde table ronde, qui de toute façon m'intéresse moins. D'ailleurs, les départs sont assez nombreux, comme mon ami qui m'a jusqu'ici accompagné (notamment à la chasse au fromage, ce qui est important, pardi).

Cette table-ronde parle de projets dans les domaines de la domotique et du développement durable. La domotique, cela fait tellement de temps que l'on en parle que l'on commencerait presque à en douter plus que fortement. La voilà associée au buzz world du moment, il n'y a plus qu'à ajouter "incitation fiscale", et nous y sommes. C'est Nicolas Leterrier, Délégué Général de Minalogic qui anime, et j'arrive sur la toute fin de la présentation de Jean-Luc Dormoy pour EDF Group Strategic Marketing Comitte, dont il est le Home Technology & Smart Meter European Programme Director (tout un program), à propos du produit "YELLO Sparzähler Compteur intelligent" (sic). Puis c'est Didier Pellegrin de Schneider Electric, qui nous présente le projet HOMES, dont il est le directeur : "HOMES définit de nouvelles architectures pour le contrôle et la distribution de l'énergie dans le bâtiment, pour mettre sur le marché les produits et solutions nécessaires à une meilleure efficacité énergétique et permettre le développement de nouveaux services". Bonne chance. Le responsable du Programme de Recherche M2M d'Orange Labs (Groupe France Telecom) André Bottaro a une mission tout aussi précise : "Senscity : Orange Labs et un réseau de PME collabore au développement d'une offre technologique et d'un business model pour des réseaux de capteurs destinés aux collectivités engagées dans une démarche de développement durable". Et justement, on finit avec Didier Dufournet, dirigeant de la société Azimut Monitoring, pour "les réseaux de capteurs et standardisation des protocoles".

16h30, c'est l'heure du grand témoin, en l'occurrence le Dr James Goldberg : "TIC et Cancérologie: que peut-on attendre de l'embarqué en matière médicale ?". Là, j'avoue que c'était franchement étrange. Nous sommes partis dans des considérations un peu folle (ça a tout de même dévié sur l'assurance maladie aux Etats-Unis -- prévoyez d'être riche si vous souhaitez avoir plusieurs échographies), et je me suis souvent demandé comment on allait retomber sur nos pattes. En tout cas, on était très éloigné d'une synthèse (de toute façon, avec des slides et un discours déjà préparés...), et cela a duré une demi-heure, tout de même. On a cependant eu droit à une liste de désidératas pour rendre la vie meilleure aux médecins et patients, on verra ce que General Electric propose -- car oui, le secteur est cloisonné... (oh, on parlait aussi du dossier médical électronique, ça en revanche ça peut nous intéresser au plus haut point)

Une heure restante avant la fermeture à 18h00, pour un cocktail de clôture, qui à vrai dire n'avait pas une pêche d'enfer, et a encore plus souffert, parmi les restants, du phénomène de grumeaux : ceux qui se connaissent forment des groupes de trois ou quatre personnes, et se tiennent en position fermée. Prendre d'assaut de telles forteresses sociales est d'autant plus difficile que l'on ne sait jamais trop sur qui l'on va tomber -- c'est ainsi que je me suis retrouvé au milieu de discussions dont il faut faire preuve du plus grand génie pour s'en échapper diplomatiquement. Manifestement, c'est là le gros point faible de cette journée : l'interaction entre les participants a été en réalité plutôt faible, en ce que les nouveaux contacts ont été particulièrement difficile (ainsi la pêche aux cartes de visite a été basse, et la distribution idoine). C'est d'autant plus dommage qu'il y avait particulièrement du beau linge, comme on a pu le voir dans les attributions de chacun. C'était généralement des directeurs de petites structures, des délégués généraux d'associations d'entreprises, des directeur de projets, ou encore des directeurs d'étude (on pouvait croiser un bon nombre d'écoles, dont certaines qui m'étaient jusque là inconnues). Bien du monde a fait le voyage depuis la province, moins depuis l'Allemagne -- je n'ai d'ailleurs pu discuter avec aucun Allemand ! Continuer a posteriori sous forme de discussion informelle un sujet avec le conférencier concerné était mission impossible, contrairement à un salon plus classique comme RTS (selon un autre modèle, certes).

L'événement est sans conteste original, mais je me demande toujours pourquoi le grand témoin n'était pas quelqu'un du ministère. On parle crédit impôt recherche, mais surtout emplois et R&D, développement technologiques de très haute importance -- automobile, satellites, télécom, et j'en passe, le militaire n'ayant pas été abordé, bref de ce qui intéresse le gouvernement --, on précise même dans le livre blanc que les décideurs connaissent mal le milieu, mais pourtant, outre que le secrétaire d'État concerné a annulé sa venue, il ne me semble pas que les conseillers de son cabinet étaient présents outre mesure. Peut-être ont-ils a posteriori visionné la vidéo complète de la journée (avec plus de chance que moi, pour qui ça ne marche pas), mais cela laisse une impression étrange. Autre complainte : une formule de speed dating aurait été tellement plus agréable pour parfaire son networking ! (avec une allitération gratuite, en plus) Mais le contenu des conférences étaient dans l'absolu de très bon niveau, l'organisation rigoureuse et le cadre très agréable, c'est donc un bilan positif que je dresse de cette journée -- après tout, il s'agissait avant tout d'assises, soit de dresser une sorte d'état des lieux, comme l'annonçait la dénomination de l'événement --, qui aura eu le mérite d'installer un peu plus Linagora dans sa stratégie de développement du pôle embarqué -- si ce n'est de nous faire simplement connaître sous cet aspect, notamment auprès du Syntec informatique.

vendredi, juin 5 2009

le choc avant le week-end

WindRiver est racheté par Intel ! Je suis allé vérifier ailleurs, ça semble bien vrai... (et l'annonce de dater d'hier)

J'en reste sans voix.

lundi, mai 18 2009

photos libres

Jusqu'ici, les OS étaient essentiellement maison, ou alors on mettait du ThreadX. Mais il semblerait que les temps changent parmi les constructeurs d'appareils photos numériques. Certes, il existe déjà un projet libre pour Canon, mais il s'agit d'exécuter un code qui ajoute des fonctionalités à l'appareil. Ici, je parle de l'OS constructeur, à base de Linux embarqué : Sony (dont les téléviseurs étaient déjà tous linuxisés depuis quelques années) équipe à présent ses gammes de Linux embarqué, sur les Cybershots par exemple. Et ça, c'est nouveau, impensable il y a encore peu de temps (entre les prix de la flash et de la RAM, forcément très supérieures en quantité que pour du ThreadX, l'investissement, sans compter le coût du portage, ne se justifiait certainement pas), et un nouveau marché pour Linux embarqué qui s'ouvre !

Décidément, où la conquête de Tux s'arrêtera-t-elle ? (à noter que mon titre est forcément abusif et racoleur -- toujours cette histoire de future carrière commerciale -- : le soft qui fait interface et le traitement numérique via DSP sont forcément toujours fermés...)

mercredi, avril 22 2009

Alcatel migre vers Linux

Au début je me suis "certes, what else ?", mais j'ai tout de même cliqué. En fait, c'est d'embarqué qu'il s'agit : les appareils de networking d'Alcatel-Lucent qui migrent de VxWorks vers Linux. Ouais, apparemment, ça tourne sous VxWorks, ça fait un peu peur pour la peine (ils sont sympathiques, chez WindRiver, mais leur pile IP a une réputation qui n'est plus à refaire, dans le milieu...). En VO, ça donne :

"There are great packages that are available on Linux and a lot of new packages we can integrate into our switches if we decide to do so," Nikolova said. "VxWorks is old and doesn't have a lot of movement in it. The packages that VxWorks provides really aren't the latest and greatest. But basically everyone is moving toward Linux."

VxWorks is old, ça m'a fait un peu tiqué : un peu d'histoire, et on trouve bien que l'origine de l'OS remonte à du framework VRTX en 83, recodé de manière indépendante au niveau de son kernel (on touche à l'équivalence de ce qu'est Linux en terme fonctionnel) en 87. Or, Linux, ça date de 1991. Et après tout, on en fait depuis 2000, en embarqué. Et le plus drôle, c'est que les projets viables et utilisés les plus anciens que j'ai pu retrouver datent de cette époque, et c'était du poste téléphonique chez.. Alcatel ! Presque 10 ans, quand même... :)

En tout cas, cette réaction est totu à fait typique du moment fatidique dit du "ça ne va plus, le patchodrôme, il faut migrer" ; je croyais que tout le monde l'avait déjà fait (regardez votre *box ADSL en même temps), apparemment, non, il en reste. Linagora est là pour vous aider, si vous êtes retardataire.  ;)

mercredi, avril 8 2009

salons RTS et Solutions Linux 09

Les salons Real Time System et Solutions Linux se tenaient en même temps, cette année, porte de Versailles tout deux. J'avais déjà évoqué les bons et très mauvais points de cette connivence de dates et de lieux il y a six mois environ, et comme je le craignais, les seuls avantages que pouvait amener cette situation ont été annihilés par la distance assez élevée entre les bâtiments 8 et 2.2 : combien de fois n'ai-je entendu les uns et les autres avoir hésité entre les deux salons (WindRiver), ou promettre de passer sur l'autre (SFR) sans qu'on les y voie faute de temps, et en tout cas se plaindre de cette situation ? D'une manière générale, peu de société de Linux embarqué ont choisi Solutions Linux plutôt que RTS ; on pourra citer Concurrent Computer, tandis que Sphinx, habituellement présent sur les deux, a préféré RTS. Linagora était évidemment sur Solutions Linux, mais pas sur RTS. Avantage cependant de ces dates simultanées pour Linagora : pouvoir dépêcher sur RTS un commercial/avant-vente dès lors que j'avais repéré une affaire potentielle ; en l'occurrence, Sébastien Bahloul aura fait quelques allers-retours (compter un peu plus de dix minutes de déplacement pour l'opération...). Mais voilà : parfois, le simple temps d'alerter d'un bon, et le temps d'arriver (parfois le lendemain, quand on a repéré quelque chose d'intéressant la veille au soir), les intervenants sur les stands ont changé, et plus que répéter le travail d'approche, il est arrivé plusieurs fois où le bon interlocuteur, le seul qui pouvait faire interface, avait disparu. C'est ainsi qu'une fois une société me dit avoir grandement besoin de services Linux, et le temps de revenir, tout autre son de cloche, très peu de Linux en vue : en fait, les deux personnes adressaient des marchés totalement disjoints.

Cela fait cinq ans que je reviens sur le salon RTS, et six pour Solutions Linux. D'expérience, le premier est bien plus intéressant que le second, en ce qui concerne Linux embarqué, mais il n'est pas impertinent de choisir le second plutôt que le premier dès lors que l'on propose du software, surtout s'il s'agit de temps-réel pouvant avoir vocation à des applications de type serveurs. C'était cependant SL qui ouvrait le bal avec une conférence dès le premier jour (31 mars) au matin sur le sujet : Sébastien Dinot comme modérateur, et des gens connus ou reconnus comme intervenant ; citons donc le traditionnel Christian Charreyre de de CIO informatique (nos concurrents marseillais), et les plus nouveaux David Chabal (toulousain dont j'ai relu l'excellente documentation sur Xenomai, que je n'arrive toujours pas à trouver en diffusion publique, mais je suis dans les remerciements), Lucas Bonnet (monsieur OpenMoko France) et Etienne Juliot (Obeo). Pour un compte-rendu très complet, il suffit d'aller lire l'excellent rapport de Thomas Petazzoni. Il se trouve que j'ai décidé de sécher cette conférence : déjà, parce qu'elle était payante, et qu'il fallait donc magouiller un pass' conférencier sur notre stand (perte de temps, quand tu nous tiens), et ensuite parce que j'ai préféré arpenter RTS sur le peu de temps imparti, qui ne me semblait pas justifier de sacrifier une demi-journée. Je pense avoir eu raison : même si je n'avais pas assisté à la session RMLL 08, j'avais lu les slides, et il se trouve que le Chabal et le Bonnet ont fait de la redif' ; la conf' plus généraliste de CIO m'aurait certainement un peu ennuyé ; et celle d'Obéo a été rediffusée sur le salon RTS, où je n'ai d'ailleurs pas été plus avancé que Thomas (on y reviendra). Il ne m'étonne en tout cas que moyennement que seuls une dizaine de personnes y étaient présentes.

C'est ce que l'on appelle "un beau gâchis". J'avais moi-même pré-postulé il y a bien longtemps pour donner une conférence sur le portage Linux embarqué sur architecture ARM non supportée, mais le temps de confirmer (ie d'avoir réellement porté le bestiaux), les trois autres intervenants étaient retenus. Quatre, c'est bien peu, d'ailleurs. J'avais alors prévu de présenter le même sujet sous un angle différent pour la conf' RTS "les outils open source dans l'embarqué", qui a été annulée silencieusement (mais j'ai appris à la fin du salon que François Gauthier avait regardé les activité de Linagora suite à mon mail, et que c'est ainsi qu'il contacta Benjamin Jean, notre juriste, pour la session "la jungle des licences logicielles"). Je donnerais a priori cette conférence (dont l'université Paris 8 a pu avoir un court extrait) au RMLL 09, à Nantes, finalement. Il se trouve, en tout cas, que j'ai par le plus pur des hasards prédestiné, rencontré Francis Mantes, au sortir du salon RTS avec Sébastien, après être allé rencontré des gens intéressants : allumant sa pipe, j'aperçois son badge, et vais donc immédiatement à sa rencontre. Nous avons discuté un bon moment (il se souvenait par ailleurs du court échange que nous avions eu par mail), et avons déploré la distance des deux salons mis ainsi en concurrence (si Groupe Solutions organisait les deux auparavant, il semble que SL soit passé sous l'égide de Tarsus) : il a été décidé de prévoir une semi-journée Linux l'année prochaine, avec force ateliers et conférences à but technique plus que commercial ; non seulement j'abonde, mais je salue la pré-initiative (en outre, puisque l'on m'a invité à rappeler par mail cet échange, je ne manquerai pas de lier ce compte-rendu, et j'en profite donc pour saluer le travail organisationnel de notre hôte).

Mais revenons-en à nos hardeux. Car le salon RTS c'est avant tout du silicium et de l'époxy, il faut bien l'avouer. Les "softeux" (ça sonne plus mal) sont peu nombreux, on compte les gros WindRiver, GreenHills Software ; il y a Sysgo, mais nul LynuxWorks cette année, et pas de Montavista non plus. Bref, on fournit du BSP (Board Support Package, pour les n00bs), mais pas de service informatique à proprement parler : un seul concurrent -- et de taille, quoique, il faut considérer que l'informatique embarquée représente aussi chez eux une partie seulement de leurs activités --, possédant un stand, côté M2M, à savoir Teamlog. À noter au passage qu'outre RTS, il est de tradition depuis plusieurs années de lier M2M (Machine to Machine, toujours pour les n00bs) et Display (affichages numériques) ; il y a cinq ans, le second connaissait un succès monstre avec force téléviseurs, imprimantes 3D ou autres, mais il doit être concurrencé par un autre événement non identifié, car il n'y a plus que quelques sociétés proposant des affichages digitaux (on reste néanmoins admiratif devant des écrans cristaux liquides d'une qualité impressionnante).

Ma mission a donc consisté à aller démarcher les vendeurs de hard et de BSP, pour nous faire connaître : oui, nous, Linagora, société de services en informatique libre (et éditeur, sur d'autres parties), partant d'un concept généralisé mais experts dans notre partie, à l'originalité indéniable notamment concernant notre interfaçage privilégié avec la communauté (aka "le monde du libre"), et disposant depuis un an et demi d'une équipe aguerrie d'ingénieurs informaticiens rompus aux techniques de l'embarqué, du temps réel, de l'industriel.

Il faut reconnaître un certain succès a priori (a posteriori, on verra si des affaires nous reviennent, il faut attendre un certain temps pour cela) : premier bon point, j'ai l'habitude de ce salon, certains intervenants me connaissent fort bien à force, je suis donc à l'aise ; second bon point, et de taille, la démarche est fort originale, et répond à un besoin déjà identifié par les acteurs. En effet, les vendeurs de matériel électronique (le "hard"), qui peuvent aller de la puce à la carte, du module au PC durci, n'ont que très peu de connaissances logicielles, et lorsque des clients viennent les voir avec une idée de développement logiciel derrière la tête, les fameux "applicatifs métiers", ce n'est pas forcément en ayant déjà à disposition l'expertise technique suffisante. Or, acheter un bien matériel que représente une carte de développement, une carte industrielle, ou un module de communication M2M est une autre paire de manches que dégoter l'ingénieur expert pouvant concevoir le système software qui va faire d'un hardware inanimé monts et merveilles. J'ai assez assuré de prestations chez des grands comptes qui cherchaient une personne qualifiée depuis six mois ou plus pour le savoir. Le positionnement de Linagora est alors simple : vous savez faire le hard, nous savons faire le soft, nous existons, faîtes-le savoir à vos clients !

Aussi, nous n'entrons pas en concurrence frontale avec les autres acteurs comme Sysgo, Montavista ou autres, qui ont déjà des accords pour fournir des BSP ou autres solutions de Linux embarqué/RT "clef en main" : nous construisons au dessus, nous intégrons, nous apportons la plus-value sur mesure, du "bespoke (free) software solution", en somme (la fashion victime qui sommeille en moi va copyrighter cette expression, tiens). À noter aussi que Linagora n'est pas un ayatollah du libre : notre société promeut le libre mais n'y oblige pas ses clients, et si le sujet est sensible dans l'industrie, j'en suis tout aussi conscient ; cependant, nous pouvons concevoir du logiciel propriétaire à la demande par dessus du logiciel libre (notre spécialité se situant ici, ce qui comprend les problématiques de licences), et ce de l'avant-vente jusqu'au support OSSA (Open Source Software Assurance : le service après-vente de luxe par Linagora), tout en vous proposant de reverser les parties de modifications de logiciels libres utiles à la communauté selon votre bon vouloir (mais croyez-moi : mieux vaut participer, gagner en plus l'estime du public averti, et éviter de redévelopper les mêmes patches à chaque fois que l'on veut effectuer une mise-à-jour interne du produit ; bien des coûts cachés sommeillent dans le logiciel libre, il est de notre devoir de proposer de les optimiser pour le bien de tous).

Voilà pour la communication externe, toutes mes excuses aux collaborateurs qui se seraient ennuyés...

La pêche fut très bonne : il est envisageable de rassembler la masse de cartes de visite (sachant qu'il faut parlementer un minimum pour en obtenir une : pas tout le monde n'avait un stock à disposition, loin de là) en un jeu des sept familles, mais il sera plutôt préférable de faire du business avec. Je ne dirais donc pas que le salon était vide, à l'instar de Thomas dans son compte-rendu sus-lié, les allées étant peuplées et les stands quasiment toujours occupés ; de plus, trois ou quatre conférences se tenaient constamment en même temps, avec plus ou moins succès -- mais au moins, elles y sont gratuites. J'ai fait le constat inverse concernant SL dès lors que l'on s'éloignait des stands Linagora-Novell-Canonical (ces derniers exposant, juste en face de nous, leur réussite sur les migrations Assemblée Nationale et Gendarmerie, et ce sans nous citer ! Incroyable mais vrai), comme quoi ça devait dépendre de l'heure. Car finalement, je n'ai passé que peu de temps sur le salon linuxien, en fin de journée ou à la pause déjeuner essentiellement, histoire de voir un peu de monde, de passer sur notre stand, ou de saluer des amis d'associations de libristes. Et puis aussi participer au cheese'n'wine du second jour, le soir -- du moins au début des festivités, un pré-Wagner m'attendait au théâtre du Châtelet.

Puisque je réserve un retour détaillé des différents intervenants très intéressants à recontacter en interne (non, je ne donnerai pas des pistes à la concurrence, il ne faut pas pousser non plus  :)  ), passons donc aux comptes-rendus des différentes conférences. J'ai commencé par une première session de 14h00 à 16h00 consacrée à la certification logicielle : le sujet m'intéresse beaucoup, j'ai justement contacté quelqu'ami chef de centre de Systerel (associé l'année dernière à Sysgo par un stand commun, mais pas cette fois) à ce sujet, car il n'existe aucune formation dans l'absolu. Différents intervenants au programme : Lionel Burgaud de Geensys a parlé d'organisation collaborative, parce que spécifier chacun dans son coin des bouts de code similaires est passablement contre-productif. GreenHills, qui a fait certifier sa solution Integrity EAL6+, après trois ans de torture (les développeurs sont aussi passés à la question) par la NSA, montre effectivement les limites de la procédure (longueurs et retards technologiques) ; Serge Plagnol (ou son collègue Rolland Dudemaine ?) m'avait, peu de temps avant cette présentation, fait un exposé sur son stand de l'attachement de GHS à la sécurité (il a montré une vidéo de turbine piratée à distance poussée à son extrême limite : de quoi attirer l'attention sur les failles de sécurité qui émaillent le code des développeurs de l'industriel) : c'est clairement le positionnement marketting de la société à présent. La vague sécuritaire touche d'ailleurs aussi la solution concurrente (mais à l'architecture différente : virtualisation vs paravirtualisation) de Sysgo, et c'est l'habituel mais toujours intéressant José Almeida (cinq ans que l'on se voit, alors à la pause, on devise ensemble, forcément) qui cette fois ne nous parle plus Linux ou PikeOS, mais DO178B (du niveau E au A, pour l'avionique), Common Criteria avec EAL/MILS (du niveau 1 à 7), IEC61508/ENSO128 (de SIL 0 à 4, par un positionnement parallèle à la DO-178B, mais pour le ferroviaire cette fois), ou encore ECSS (espace), FDA (médical) et que sais-je encore : un vrai fouillis ! Les prédispositions communes sont la fiabilité, la disponibilité et la réutilisation, à mettre en corrélation avec le Time to Market ; d'autres concept sont encore abordés : certification incrémentale, méthode formelle, mélange de niveaux indépendants, utilisation en redondance (pas facile de relire ses notes, d'autant qu'il faut effectuer une traduction à la volée...). On évoque aussi des différences dans les habitudes de codage avec l'apparition d'APIs POSIX/ARINC. Enfin, on parle d'ESA, dont le projet est la convergence de certifications (ECSS, DO178B et CC/EAL5+), en recoupant les similitudes pour gagner du temps.

C'est ensuite à Matteo Bordin, d'AdaCore (tiens, un intervenant que je ne connais pas, uniquement anglophone d'ailleurs), "toward a lean approch of certification", qui parle d'open-do.org. Ce projet recoupe ce qui avait été abordé justement par GHS (mais ils ne se connaissaient pas tous les deux, un comble pour des prôneurs du coopératif !), à savoir la collaboration et la mise en commun pour accélérer les certifications, selon un nouveau moyen hérité des méthodes Agile. On remarque en premier que la certification actuelle se fait d'un seul bloc : on écrit entièrement le code, puis on le fait certifier, on attend quelques années, et voilà. Mais rajouter du code ensuite fait automatiquement sauter la certif', et il faut alors recommencer le cycle depuis le début : dans le cadre d'un logiciel communautaire (au hasard un compilateur pour langage Ada), on comprend que ce soit passablement gênant. L'idée est alors de recouper le libre, l'agile, et la certification High Assurance ; on voit une potentialité dans le militaire, l'espace et le ferroviaire pour une communauté HA, on compare la méthode de certif' DO178 vs Lean/Agile, et on expose enfin le but d'OpenDO : communauté ouverte, partage, base de connaissance, apprentissage méthodologique (education, en anglais dans le texte) et de l'Agile dans les process. Why not ? Comme "bootstrapping" (on reste parmi des techos, on a le droit au détournement d'expression -- quoique) : FP7 en Europe et DARPA aux USA. Bref, ça démarre...

C'est au tour d'Olivier Charrier de WindRiver, sur le sujet de l'avionique modulaire intégré (IMA), partant du concept qu'en avionique comme en automobile, l'augmentation des fonctionnalités s'observe parallèlement à la baisse du nombre de CPUs embarqués, qui deviennent multicoeurs, déjà qu'ils avaient tendance (oh my god tout ça) à avoir de la MMU, du DMA, et on en passe des meilleures qui imposent (attention puristes, ça va vous faire mal) l'utilisation d'un OS. Résultat : des problèmes de synchronisation dans les développement hardware, software, l'intégration des deux, le tout avant certification. On attire l'attention sur le point d'achoppement principal que constituent le debuggage et le testing. Thomas Cenni de MathWorks (éditeur de Matlab, évidemment) parle de tout autre chose : génération de code certifié, instrumentation simulink et le tout sous couvert de Polyspace, racheté il y a plus d'un an à présent (différence entre Polyspace et Coverty : le premier indique quelles sont les zones totalement fiables et certifiables, le second indique les bugs potentiels : chacun prend le problème par un bout, cependant à 45K€ la solution -- sans compter la prise en main que cela implique --, mieux vaut ne pas se tromper d'approche ou être riche !). Enfin, Luc Coyette d'Esterel entretient des problèmes de spécification et de tests, impliquant la détection tardive de bugs, faisant exploser les coûts (jusqu'à devenir intolérablement haut dans certains cas) ; sa solution : SCADE, aliant langage formel, générateur de code certifié, simulateur et vérification de compilation. Il annonce que 8 millions de lignes de codes générés pour 40 modules sont embarqués dans l'A380, au niveau A de la DO-178B ! En séance de questions, quelqu'un demande pourquoi on n'applique pas les même normes draconniennes à l'automobile (extrait du magazine "Electronique" : " 'le standard DO-254 [ndlr: certif' de systèmes un peu plus complexes que pour la 178], quant à lui, est très jeune puisque le document date d'avril 2000', explique Lionel Burgaud (GeenSys)", ça donne une idée du niveau) : réponse, parce que ça coûterait trop cher pour quatre morts de temps à autre, sans que l'on sache trop (et à vrai dire, on ne cherche pas trop à savoir) si c'est le régulateur de vitesse ou la mauvaise conduite qui en est à l'origine ; un avion de 240 personnes qui se crache, c'est une catastrophe qui passe au JT, mais effectivement, il y a bien 50 fois moins de morts par accident d'avion en France que par voiture, c'est juste que le coût par vie est moins rentable tout considéré. On apprécie la franchise.

Seconde conférence : tests et sécurisation en milieu embarqué, le second jour au matin (10h à midi). Le propos était fort semblable, et si l'on y ajoute que le magazine "Electronique", distribué gratuitement (au lieu de 12,20€ les 65 pages pubs nombreuses comprises, sacré pouvoir d'achat chez les hardeux !), consacrant un dossier en couverture de cinq pages sur le sujet (et deux à l'amélioration du temps de boot de Linux, au passage), cela montre l'intérêt porté à la question, d'autant que l'audience comportait encore trente à quarante personnes. Bref, sous l'égide de François Gauthier, de ladite revue électronique (mensuel arrivé au numéro 200, quand même), le premier intervenant est encore de chez GreenHills, le fort connu Serge Plagnol : il nous parle d'hyperviseurs (tendances, techniques et applications), comparant para et full (ainsi que l'hybride) virtualisation (notamment par rapport au portage de drivers, inutile dans le premier), mais aussi de type 1 (à la ESX) vs type 2 (à la VMW workstation) ou hybride, comme  c'est le cas de, KVM mais aussi d'Integrity, qui peut ainsi aussi exécuter des applications. On considère ensuite les différentes architectures : monolythique (ESXi, VLX -- VirtualLogix était d'ailleurs absents, tout comme Trango et OKL4), Dom0 (Xen par exemple, mais le TCB est encore trop gros, on compte plusieurs mégas de code !) et enfin à base de microkernel, comme OKL4 (que l'on connaît assez bien par ici : mon ancien stagiaire a passé six mois sur le sujet) et Integrity, qui présentent un très petit TCB. On parle rapidement de ce que propose l'architecture x86 en terme d'aide à la virtualisation : VT-x (niveaux de privilèges) et VT-d (I/O virtualisés, dont la DMA, plus quelques autres joyeuseries) ; pour l'instant, l'Atom ne propose que du VT-x, mais une évolution prochaine est à attendre ; de son côté, ARM propose TrustZone, une double partition de fiabilité. Si l'on rappelle (page de pub) qu'Integrity est certifié à présent EAL6+, on insiste sur le fait que la virtualisation n'implique pas en soi la sécurité, bien au contraire ! Enfin, les applications de ce type de sécurisation par hyperviseurs seraient la téléphonie, les PC portables d'entreprise, les terminaux de paiement, le jeu avec transaction financière, et tout ce qui implique à la fois une communication (militaire notamment) et la présence simultanée d'une IHM.

Après cette longue présentation, c'est au tour de Jean Philippe Dehaene de présenter AUTOSAR, l'outil de simulation de VECTOR, les spécialistes en solutions logicielles (notamment sur bus de comm' CAN et LIN) pour l'automobile ; c'est intéressant pour qui est du milieu (très particulier, et qui ne va pas forcément bien en ce moment : passons). Didier Vidal d'ISIT expose les mérites de LDRA, l'analyseur statique de code ; c'est que la relecture manuelle de code trouve sa limite à 10 pages par jour, même si elle corrige 80% des bugs fonctionnels. La relecture automatisée, à l'inverse, ne peut pas trouver les erreurs fonctionnelles mais relève 80 des bugs techniques. À l'aide de règles de codage (MISRA-C 2004), de graphes d'appels, d'étude de code, de statistiques, de commentaires automatisés (ça j'aime !), de suivi de variables et d'exports des résultats dans des formats divers et variés dont le web (ça dépasse la simple relecture automatisée !), la société entend nous faire économiser bien de la sueur (contre un gros chèque, certainement). Fait très amusant, dans le contexte : alors que l'on passe rapidement les très nombreux slides, et que le transparent 60/60 concerne la détection de buffer overflow et d'overrun, on continue la présentation jusqu'à la slide 67/60 !

Ben Chelf, CTO de Coverty (et anglophone only, sorry) parle d'une nouvelle solution d'analyse de compilation : ça c'est fort ! Le problème du build est l'effet "boîte noire" (black barrier), peu importe si le compilateur est est libre ou non, à la rigueur, étant donné la complexité actuelle. L'analyse de build construit une carte du système de compilation complet en s'interfaçant entre les outils et l'OS ; un exemple est alors donné en utilisant... OpenOffice.org ! Ça ne s'invente pas, et évidemment, le graphe peut servir à faire peur aux petits enfants le soir. À noter que d'une manière générale, les outils libres sont implantés partout : on s'en sert directement (gcc et eclipse en star, encore plus que Linux) ou indirectement, comme base de proof of concept ; coverty s'est fait une spécialité de découvrir les bugs de logiciels libres pour à la fois se faire de la pub à peu de frais sur une base de code énorme, et tester leur outil en même temps (ce qui me fait penser que je leur ai parlé du bug de ifstated sur bagotage d'interface réseau : arriveront-ils à le trouver ?). Leur logiciel explore les différentes phases de la compilation : le make clean, les macros DEBUG ou RELEASE, les options de sécurité, etc ; fini les peurs bleues d'avoir un fichier objet non regénéré à la suite d'une modification de .h ! (ça peut faire très, très mal, sur du code militaire mal foutu, surtout quand ça fait plusieurs dizaines voire centaines de milliers de lignes -- souvenirs douloureux). Outre l'analyse, un "build management" est proposé.

L'après-midi, je m'étais inscrit à la conférence sur la virtualisation, mais j'avais mal compris : c'était la virtualisation de la machine de développement dans le but d'émuler des plate-formes exotiques pouvant aller jusqu'à l'ARM OMAP ; comme j'avais déjà discuté assez en profondeur à mon goût de ce sujet avec les principaux intervenants, ECSI (attention ! web 0.2), je me suis enfui ; cependant, le sujet est extrêmement intéressant, pour avoir eu l'occasion de développer sur OMAP, justement, et donc de goûter aux 25 minutes de flashage intégral à chaque fois que l'on veut tester la solution (quant au développement par NFS, autant oublier : il n'y a pas d'Ethernet, voyons !) ; je crois donc sans problème le consortium européen (avec notamment une université lettone dans le lot, oui ça étonne) lorsqu'ils affirment pouvoir réduire par deux le TTM (Time to Market, si vous débarquez de Mars). J'ai donc opté pour l'autre conférence simultanée pouvant être intéressante : Agile dans le milieu industriel, encore introduit par François Gauthier qui avoue à la fois intérêt grandissant (ce que semble confirmer le monde présent) et la nouveauté de l'approche dans le milieu. Mauvaise pioche : Philippe Soulard (remplaçant Yves Lebeaupin) de Sodius me fait mal à la tête avec son exposé "Multi-tool & multi-model integration using IBM rules composer" : trop de sigles et concepts abstraits, c'est à se demander si l'on parle bien de méthodes Agile, en tout cas je ne suis pas ; Etienne Juliot d'Obeo (voir au dessus) prend la relève et commence par un remerciement à son prédécesseur d'avoir introduit autant de concept (ouille), avant de nous parler de ses outils de modélisation, avec du temps-réel et de la génération embarqués sous Eclipse (c'est ce que disent mes notes) ; je reste malgré le micro qui rend l'âme (embêtant, ces micros, vraiment) parce que ça parle OpenSource (j'ai appris plus tard que Linagora a un peu travaillé avec Obéo pour le ministère des finances, association qui n'a pu aboutir faute d'avoir obtenu le marché : je confirme que nous n'étions pas mentionné parmi les partenaires), mais au bout d'un moment, je finis par craquer (au bout d'une heure, en fait).

Dernier jour et dernière conférence : "la jungle des licences logicielles". L'intitulé a pas mal évolué, l'apparition de cette conférence le dernier jour (moins peuplé et terminant à 17h30) n'a pas non plus aidé au remplissage de la salle : seulement une dizaine de personnes présentes, ce qui a déçu François Gauthier (décidément, je n'ai pas fait exprès, mais nous partageons les mêmes goûts apparemment). L'année dernière, la salle était comble, et les intervenants clairement techniques et peu juridiques : cette année, tout le contraire, de vrais juristes et avocats, mais des erreurs techniques dans le discours (netfilter, le module Linux de firewall, est ainsi de venu "netfiles", logiciel). Pour l'année prochaine, il serait de bon ton de mêler les deux milieux, et je me propose dores et déjà, tant le sujet me passionne (le juridique d'une manière générale, en fait, et je devise régulièrement avec avocats et professeurs de droit, de surcroît) ; d'ailleurs, j'ai pu parler à la fin de l'affaire Guillermito, fort importante mais inconnus de mes interlocuteurs (pour ma part, j'avais tout simplement pris deux après-midi pour assister au procès et au délibéré). Les deux premiers intervenants sont Cendrine Claviez et Vincent Pollard du cabinet TAJ, mais arrivant en retard (pour cause de prospection), j'ai raté le début de l'intervention de la première, pour arriver au moment de la considération des effets héréditaires/viraux, classant GPL, EUPL, CeCILL A d'un côté, MPL, LGPL, Eclipse et CeCILL C de l'autre, et enfin MIT, BSD, ASF et CeCILLB ensemble. La volonté d'organisation de cette "jungle" est manifeste. On continue sur les résiliations, automatique pour la GPLv2 et l'EUPL, il y a un délai pour la GPLv3 : en cas de constatation de violation, on peut ainsi avoir le droit de continuer d'utiliser le logiciel en attendant la rectification, alors que pour les autres, la sanction est immédiate, avec l'injonction de cesser immédiatement l'utilisation ; pour la peine, la GPLv3 est bien plus favorable à l'industriel distrait ! (évidemment, nous considèrerons la bonne foi a priori de celui-ci) On parle de l'EUPL, versions 1.0 et 1.1, la licence libre européenne pensée pour agir dans la juridiction du licenceur en Europe, et selon le droit belge sinon, et comportant une clause de compatibilité avec la GPLv2, la CeCILL ou encore Eclipse (attention cependant à la GPLv3 ou tout autre licence rédigée après l'EUPL, et de facto non mentionnée : il faut rajouter en annexe). On rappelle que le relicenciement autorisé par la BSD implique de pouvoir rendre le code GPL.

C'est ensuite au tour d'Hervé Guyomard de présenter son outil phare de Black Duck Software, et il nous injective : "Know your code" ! Prenons un exemple : Cisco rachète Linksys pour 500M$, Linksys embarque dans son WRT54G du code de Broadcom, que lui a fourni son sous-traitant Cybertran ; pas de bol, c'est bourré de GPL, et la FSF intente un procès à Cisco. L'histoire va plus loin encore : le WRT54G à 60$ voit son code libéré pour respecter la licence, code qui se voit grandement amélioré par la communauté, et réembarquable dans le même appareil, concurrençant dès lors des solutions professionnelles de Cisco valant... 600$ ! Cette histoire bien connue des milieux libristes de l'embarqué illustre le propos de notre intervenant : avec 1400 licences OpenSource recensées (évidemment, la plupart sont des adaptations de licences bien connues : il suffit de rajouter des annexes ou de modifier des paragraphes -- on recense par exemple une GPL interdisant les usages militaires : il faut noter que cette licence n'est alors plus considérée comme libre, quoique toujours OpenSource), il n'est pas inhabituel de se prendre les pieds dans le tapis, et d'embarquer sans le savoir du code soumis à des termes de licences non pris en compte, et pouvant avoir de fâcheuses conséquences. Protex est une moulinette sur-évoluée de code basée sur une base de données et de métadonnées complète, pouvant dès lors détecter à l'aide de génération de fingerprint (inutile de ne changer que le nom des variables et des procédures : ce sera détecté) les composants OpenSource lors d'un audit de code ; l'outil sait même reconnaître les conflits de licences. Dans l'industrie mobile, Intel, Samsung, Siemens, Motorola, Nec, RIM, LG, Qualcomm, Palm, Cisco, Xerox, Sega ou encore NTT ont fait appel à leur service : c'est dire si le problème est largement pris au sérieux ! Hervé Guyomard affirme par ailleurs que toutes ces entreprises intègrent d'une manière ou d'une autre des produits OpenSource dans leurs appareils.

Le dernier intervenant est bien connu à Linagora, puisqu'il s'agissait de Benjamin Jean, notre juriste. Pris dans le marasme des transports (RER D ?), il est arrivé bien en retard et a totalement raté les premières interventions : sans filet et sans slides, il essaie de faire original en pointant les sujets les plus importants : droits et obligations, extension de la licence (jusqu'où la licence couvre-t-elle ?), l'élément déclencheur aussi (souvent, il s'agit de l'utilisation, donc de l'exécution, mais il peut s'agir du simple téléchargement !). Il indique qu'un groupe de réflexion est actuellement monté au sein du SYNTEC informatique. Et qu'il a donné une conférence complète dont les slides peuvent être trouvées sur le net (sauf que je n'ai rapidement pas trouvé, il faut mettre son blog à jour, Ben ! ;)  ). Il en oublie de citer le groupe dédié aux problèmes de licences libres qu'il anime, Veni Vidi Libri, on sent la fatigue après trois conférences sur le sujet en trois jours ! On passe à la séance de question, qui tournent toujours autour des mêmes points, le plus crucial étant : où commence et où s'arrête ce qui est couvert par la licence ? (dans le public, un représentant de Vector présente son activité : c'est surprenant de voir ça sur le salon RTS ! On a totalement changé de monde) C'est que le problème est pernicieux, sur des systèmes embarqués dont la limite avec le userland est parfois assez floue (WindRiver vient d'ailleurs d'en implémenter un sur VxWorks : je parie que c'est pour répondre à ce genre de problématiques), et je discute après la conférence avec un ingénieur s'occupant de l'interfaçage juridique (on se demande d'ailleurs comment on pourrait nommer ce nouveau métier, que j'ai déjà rencontré chez Philips : je ne sais pas trop, mais ça m'intéresse comme évolution de carrière) de la possibilité de jouer avec les share memory, via une couche logicielle libre mais plus permissible, y pour interfacer des modules GPL avec du propriétaire (technique quelque peu utilisée par les hyperviseurs de paravirtualisation, après tout -- et j'ai déjà croisé un projet réel pour cela lorsque j'ai travaillé pour Trango). Mais il est vrai que la GPL parle d'un "tout logiciel" : nulle technique, au juge d'apprécier en cas de litige, donc au meilleur expert ès enfumage (et vulgarisation) de montrer ses prouesses, nous voilà fortement rassurés... Notons pour finir que les brevets n'ont pas été abordés (sujet connexe aux licences), et donc que l'affaire Tomtom n'a pas été évoquée, ce qui est dommage.

C'est ainsi que s'acheva la dernière conférence : j'en avais bien prévu une autre, sur les standards logiciels, mais manifestement elle a été annulée, certainement faute d'audiance, le dernier jour étant effectivement largement plus vide. J'ai pour ma part pu observer que le VME vivait toujours et plutôt bien, même s'il partage à présent l'affiche avec toutes sortes de PCI industriels. Côté processeurs, les nouveaux ARM Cortex ont évidemment la côte, occultant ARM9 et 11, d'autant que de nouveaux OMAP sur base Cortex apparaissent (les ARM7 étant remplacés par les M8, les autres étant A8, avec une évolution en faisant monter les chiffres à côté de chaque lettre -- la nommenclature ARM est toujours très sportive, seul Intel fait mieux) ; la puissance de ces processeurs fait apparaître des solutions à base de Java, où pour une simple application en stand alone, un OS est inutile (certains abandonnent de fait Linux), la VM faisant office de tout, y compris de scheduler entre les différents threads. Côté PPC, on trouve du PowerQUICC III, qui se porte toujours aussi bien dès qu'il s'agit de faire de la communication. Et puis la star, l'Atom, que l'on retrouve partout : il faut qu'Intel a enfin corrigé les énormes pertes d'énergie qui font que les netbooks meurent de fatigue au bout de deux heures seulement, et qu'à présent, on peut réellement concurrencer du ARM, avec moins d'automie mais plus de puissance, dit-on ; en tout cas, la solution étant viable depuis environ quatre mois à présent, le temps de concevoir des cartes et l'on a pu constater que l'engouement était très, très récent ; le PC104 et le Geode ont en tout cas totalement disparu ! Les nouvelles techniques de virtualisation en cours d'implémentation devraient aussi pousser dans ce sens, et Intel promet l'arrivée d'un adressage direct de la flash, sans passer par un contrôleur (ce qui est, rappelons-le, la lose totale) : on pourra ainsi, comme sur ARM, considérer flash et RAM de manière contigüe, et avec la promesse de pouvoir outrepasser le BIOS (ils travaillent avec Microsoft, me dit-on, car actuellement nul OS ne supporte cela : il faut dire que le BIOS -- pour l'instant incontournable sur l'archi x86 -- ne fait pas grand chose, il initialise principalement des périphériques PCI avant de lancer le bootloader, mais il est bien connu que Linux outrepasse depuis longtemps le paramétrage du BIOS, et que le projet FreeBIOS s'appelait avant LinuxBIOS car il s'est basé sur du code d'amorçage de Linux). Bref, Intel va inventer ce qui existe depuis 20 ans, on s'en félicite. En fait, je ne sais jamais trop si c'est une bonne nouvelle de voir débarquer en force une architecture aussi mal foutue que le x86 dans le monde de l'embarqué, déjà que près de la moitié des projets l'utilisent (pourquoi ? Parce que c'est connu, effet "j'ai le même dans mon PC", psychologie commerciale basique...). Cependant, Linagora se fera une joie de développer vos applications sur ce type de processeur, nous avons d'ailleurs achevé un projet majeur sur plate-forme à base de Pentium M (qui, s'il n'avait tenu qu'à moi, tournerait sur PowerQUICC III).

Je n'ai malheureusement rencontré que fort peu de monde connu dans les allées de RTS, j'ai eu la joie de tomber par le plus pur hasard (je revenais de SL alors qu'il s'en allait) sur mon ancien chef de projet chez Sagem, à qui j'ai donc enfin pu demander des nouvelles de notre bébé, le MO300e (module Neptune avec Nucleus+Linux) : eh bien c'est une totale déception commerciale, les clients potentiels préfèrent une implémentation à deux CPUs, un OMAP très simple et rigide allié à un ARM9 très souple comportant son propre Linux customisable. Moralité : peu importe la dose de technique que l'on met dans un projet (en l'occurrence, le MO300e c'est de la virtualisation maison, une interface web pour administrer le Linux et notamment gérer ses propres applications additionnelles, une sécurité parfaite, un SDK facile à mettre en oeuvre où j'ai même incorporé un système facilité d'émulation, etc) tant qu'on n'adresse pas le bon marché, et que l'on ne répond pas aux attentes des clients. De peur de ne pas pouvoir faire face aux demandes de support Linux, le périmètre a été fortement réduit, avec notamment l'impossibilité de charger des modules personnels dans le noyau, figé au 2.6.18 : la solution étant fortement industrialisée, il n'y avait pas vraiment le choix, et la mise à jour de firmware est une plaie, puisque nous sommes sur des LU, les Logical Units, entièrement chiffrées puisqu'ayant accès au réseau GSM (je pense cependant qu'une solution pouvait être envisagée pour mettre à jour à chaud, mais la demande en mémoire flash aurait été trop coûteuse) : comme quoi mettre un seul chip est plus économique mais trop spécifique dans ce cas pour adresser un large marché aux besoins très divers. Bien dimmensionner veut aussi dire d'étudier le marché, et de ne pas ignoré -- comme cela avait été le cas à l'époque -- les demandes pressantes des clients sur certains points techniques ; une récente discussion par mail à ce propos avec une société de M2M autrichienne a confirmé cette tendance (après avoir testé durant quelques semaines le produit -- ils m'ont demandé quelqu'aide par mail, car la réactivité de Sagem n'était pas terrible --, les dernières nouvelles étaient que leur avis sur la viabilité du produit était de plus incertaine, et que Wavecom semblait être, à regret, de nouveau la "meilleure" solution).

J'aurais en tout cas bien voulu échanger quelques mots avec mes collègues de l'APRIL Sébastien Dinot et Thomas Petazzoni, recontrer enfin David Chabal, croiser Patrice Kadionik et Pierre Ficheux qui j'en suis sûr connaissent plus mon visage que mon nom (ou l'inverse, allez trop savoir, mais il y a un manque certain de corrélation :)  ), deviser avec Denis Bodor de Linux Mag' (mais il était tout le temps occupé, je lui enverrai un mail), ou me faire présenter au pôle édition d'Eyrolles (parce que finalement, à part un peu "Embedded Linux Primer", dont l'auteur a d'ailleurs écrit dans le "Electronique" du mois de mars distribué gratuitement, il n'y a jamais de technique pure et concrète de "comment embarque-t-on du Linux", ce qui est un peu un comble pour des bouquins de Linux embarqué au nombre de quatre ou cinq, qui restent pourtant très bons ! Bref, je caresse une certaine idée...). Il y avait du monde sur SL, mais il était difficile de le rencontrer. Patrick Sinz était en tout cas sur le stand de Emtec (ex-BASF), pour présenter le Gdium (il bosse maintenant pour Gdium SA, basé au... Luxembourg, hum), et d'autres STB/disques durs multimédias de la marque.

Pour conclure (comment ça, "enfin" ?), mon avis sur les deux salons est positif mais avec une petite réserve sur un sentiment diffus d'essoufflement ; comme je fais la même remarque chaque année, ça ne doit pas être si grave (et puis, c'est la crise). Mon principal regret est la disjonction des deux salons. Un workshop géant pour Linux embarqué me semble être la meilleure idée, à la condition que les deux salons soient très proches (il aurait été possible d'avoir une continuité physique, les locaux sont prévus pour à la porte de Versailles !), ou alors qu'ils ne tombent pas aux mêmes dates, comme avant. Dans ce workshop (sur le salon RTS, s'entend, il faut que cela reste gratuit), il serait idéal d'adresser toute sorte d'intervenants, de milieux divers (industriels, CE, M2M, comm', etc), des enseignants et formateurs (quelques uns se baladaient sur le salon, ai-je appris sur le stand de Neomore), des libristes (pourquoi pas aussi des gens du monde BSD, eux aussi ont des choses à apporter à l'embarqué ! Soekris était d'ailleurs présent cette année encore sur SL), des entreprises de type intégrateur ou de service (c'est ici que peut entrer Linagora, outre l'aspect formation et juridique), en plus des habituels éditeurs, et enfin, élargir le scope avec du juridique (licences et brevets) ; je rêve d'un village associé à un cycle de conférence techniques ; et de retours d'expériences qui forgent des liens entre visiteurs (et pas seulement entre exposants et visiteurs), d'autant que Linux s'embarque sur des appareils tellement divers et spécifiques qu'il est toujours très intéressant d'en embrasser une vue la plus globale possible.

Concernant la diffusion de Linux et bien plus encore celle du logiciel libre dans l'embarqué (on pense aux méga-stars que sont gcc et Eclipse : on les trouve partout, soit bien plus encore que notre kernel favori), on peut dire que l'évolution atteint une sorte de vitesse de croisière : ceux qui attendaient pour migrer l'ont presque tous fait, et les nouveaux projets peuvent choisir parmi une gamme de solutions complète, où Linux prend une place importante, mais en dehors de tout effet de mode et de tout engouement irréfléchi. De nombreux partenariats ont été formés avec les principaux éditeurs de BSP, Montavista, WindRiver et Sysgo, de telle sorte que les fournisseurs de hardware peuvent répondre aux attentes de leurs clients, manifestement mieux informés qu'auparavant (cinq ou six ans que l'on évangélise, aussi). Cependant, le logiciel s'est trouvé de fait dans un certain recul -- je compte de tête cinq stands dédiés au soft "génériques", c'est-à-dire outre le spécifique de contrôle-commande ou d'analyseurs --, assez important même par rapport aux années précédentes, de telle sorte que j'ai bien peur que les acquis des années précédentes ne se perdent, d'autant que l'évolution du libre et du monde du CE est rapide. Sur les stands, on a souvent avoué un manque d'expertise dans les domaines que nous adressons, et il faut ajouter à cela les demandes en formation comme en renseignements juridiques solides. Il faut cependant bien se rendre compte de l'inertie toujours flagrante du milieu, fonctionnant selon une certaine logique de "cercles de confiance", et même si les accueils reçus étaient toujours chaleureux et intéressés (y compris à des endroits que je ne soupçonnais pas, comme le concepteur de fonds de panier PolyRack), nous verrons combien d'affaires peuvent nous être adressées...

J'espère cependant qu'elles seront assez nombreuses pour me permettre de justifier de nouveau deux jours et demi de visite sur les salons, mais aussi faire exploser le chiffre d'affaire du pôle embarqué, dont une commission me sera évidemment reversée (pas vrai patron ? ;)  ). Plus sérieusement, les retours seront certainement à mesurer d'ici les six prochains mois (j'ai déjà reçu un coup de fil, mais pas d'affaire sur le court terme), espérons simplement de leur positivité, en attendant de se faire encore mieux connaître. À noter cependant une évolution des mentalités avec une attention particulière portée au TTM, pour lequel Linux peut battre des records pour peu que l'on soit bien entouré ; cela rejoint clairement le sentiment dégagé lors du salon ARM. J'ai oublié de prendre des photos, cette fois-ci, d'ailleurs. On attend à présent les slides des conférences, pour information ARM m'a envoyé celles de leur salon sur CD-Rom, disponible à mon bureau.

Il n'y a plus qu'à remercier encore une fois les différents organisateurs des deux salons pour cette édition 2009, et donner rendez-vous à tous pour l'année prochaine !

lundi, décembre 15 2008

le libre contre-attaque

Ouch, coup sur coup, une attaque de trois développeurs (avec la FSF France en sous-main, n'en doutons pas trop) contre Free, ce qui leur pendait au nez depuis un bon bout de temps, suivi juste ensuite d'un attaque de la FSF (tout court) contre Cisco (via Linksys) : mêmes raisons, mêmes effets et même milieu. Celui de l'embarqué, bien sûr. Deux box, l'une de type modem/Set Top Box (Freebox), l'autre de type routeur évolué de maison (WRT54), comprenant de manière certaine des Linux (avec Netfilter), des busybox, des libC, et que sait-on d'autre, mais pas de code redistribué en contre-partie. Pour l'instant, les deux parties sont présumées innocentes (je précise, parce qu'à 6h30, je dors, et que je tiens à mon intimité -- et mon bon PDG, responsable de ma publication même s'il ne doit me lire que bien peu, certainement aussi, d'ailleurs je précise au cas où un Capital aurait été raté qu'il est pilier au rugby !), mais que se passera-t-il en cas de condamnation ?

Eh bien c'est simple : outre les dommages et intérêts à déterminer (pour Free, on demande 10 millions d'Euros, soit grosso modo pour chacun des trois 1€ par box, ce qui est fort peu : certaines royalties tapent dans les 5$, pour des softs franchement bidons que nous ne citerons pas pour des raisons évidentes), il faut faire cesser le litige (sous peine d'astreinte) : deux choix s'offrent alors. Soit on écoute la bonne licence et on libère le code, c'est-à-dire que l'on fait disposer à tout un chacun le demandant (et pouvant s'en prévaloir : il faut avoir acheté l'appareil concerné) un CDrom les contenant, ou alors on ne s'embête pas et l'on tient un ftp public (regardez comme ils sont sympas chez Sony : Linux, busybox, uClibc, cross-gcc, et p'têtre deux ou trois autres trucs, pour chaque appareil, tout simplement, d'ailleurs ils devraient mettre en toute rigueur les scripts de compil, mais ils ne le font même pas). Soit, deuxième solution, on rapatrie les box et on change tout le logiciel, mais je crois que ça risque de coûter assez cher (c'est mon petit doigt qui me le souffle), et que ça ne vaut pas vraiment le coup (sinon, Linagora se propose de tout vous faire migrer sous BSD, on peut vous faire un prix d'ami je pense, c'est bientôt les soldes).

Ou alors on paie l'astreinte, mais tout le monde n'est pas Microsoft (heu, c'est de notoriété commune, c'est pas de la diffamation, hein chef ?). On ne badine pas avec la GPL, à bon entendeur... Pour ma part, j'ai vécu aussi des choses assez ubuesques, comme des demandes explicites de ne surtout pas changer une seule ligne de code d'un programme libre (même pour quelque chose de très bête, qu'il a fallu contourner à grands coups de scotch et de ficèle), pour ne pas avoir à la redistribuer ensuite (on ne parle même pas de faire l'effort de la réintégrer auprès de la communauté, comme s'engage Linagora à le faire plusieurs fois par jour !). Ce n'est pas pour rien que j'insiste toujours sur le côté juridique de mon cours, partie qui assomme régulièrement mes étudiants, pressés de brancher leur premier câble RS232 (pour avoir... un prompt, c'est qu'on est heureux avec peu, lorsqu'on est jeune).

Et Linagora dans tout ça ? Eh bien... notre projet de logiciel embarqué, qui nous occupe depuis un bon bout de temps, est sous BSD (OpenBSD). Forcément, ça fait moins de problèmes juridiques à l'arrivée (mais juste juridiques... Et à vrai dire, ce n'était pas pour une question de licence que cela a été choisi ainsi : embarqué ne veut pas dire accessible à tout un chacun ! Seul le client peut se prévaloir de la licence et réclamer les sources couvertes par la GPL). Sinon, nous dispensons aussi des cours en Droit Individuel à la Formation, par Benjamin Jean, une pointure vous dis-je, et si ce n'est certes pas donné, il faut bien se dire que des conférences pleines au salon RTS il n'y en a qu'une par an (et... il n'y avait pas vraiment de juriste présent, d'après mes souvenirs), et puis que ça peut faire économiser potentiellement un procès et 10 millions d'Euros pour couvrir à tout prix (c'est le cas de le dire) des NDAs ou une sécurité foireuse que l'on n'avait pas pas bien considérés avant, en fait...

vendredi, novembre 14 2008

pourquoi le "GNU/" de GNU/Linux revêt toute son importance dans l'embarqué

On connaît la bataille de clochers entre libristes, ou du moins entre fervents libristes de l'église de St-GNU et ceux qui promeuvent le libre uniquement pour supériorité technique -- tels Linus Torvalds : faut-il dire "Linux" ou "GNU/Linux" ? Pour ma part, je me sers de l'expression "GNU/Linux" dans mes interventions afin de bien différencier ce qui relève du noyau "Linux" de ce qui relève du système libre "GNU". Car on peut fort bien utiliser GNU sans Linux, par exemple avec des environnements Cygwin, gcc, gdb, OpenOCD, Eclipse, pour des systèmes propriétaires tels que VxWorks, LynxOS ou QNX (qui ont tous trois des SDK basés sur les logiciels libres précédemment cités ! Et peuvent en partie utiliser des logiciels libres, sans que cela constitue l'intégralité du système hors noyau). La question d'utiliser Linux sans GNU se pose aussi : certains diront que le projet Busybox ou que la uClibc n'en font pas partie, cependant on peut pondérer cette assertion sur le fait que la licence est la GNU/GPLv2, et qu'à vrai dire je ne suis pas convaincu du tout qu'un projet comme la busybox ne soit amusé à recoder les plus de 200 logiciels regroupés qui la composent, notamment des aussi complexes que vi ; quelque part, tout est issu plus ou moins du projet GNU.

Mais peu importe à vrai dire, car le message technique associé pour l'embarqué et la redéfinition des relations associés à l'emploi de (GNU/)Linux est le suivant : le système d'exploitation hors noyau est indépendant dans une large mesure du noyau lui-même. C'est-à-dire qu'il a été conçu certes en utilisant par exemple des IOCTL propres à Linux, d'une manière marginale, mais surtout sur une base POSIX la plus indépendante possible, puisque le projet de noyau de GNU reste avant tout le Hurd. Et que donc même la libC (glibC) est fondé dans cette optique-là. Ceci est une différence fondamentale avec le projet libre OpenBSD, par exemple : ne désignant pas seulement le noyau mais l'ensemble du système d'exploitation complet, même si le noyau /bsd est bien délimité (contrairement à Windows, par exemple, où l'on ne sait jamais très bien où ça commence et où ça finit), le système forme un tout homogène et surtout inséparable dans ses versions. C'est-à-dire que non seulement il est bien spécifié que l'on ne doit pas s'amuser à mélanger les versions de logiciels, car sinon aucun support ne sera assuré par la communauté, mais en plus de cela il y a réellement des problèmes dans la réalité (on aurait pu croire à un simple warning anti-n00bs, comme le découragement de recompiler à partir des sources).

Sur un projet récent j'embarquais de l'OpenBSD 4.2 ; manque de chance, le support de la carte flash était très lent sur cette version, alors que sur la version 4.3 sorti entre temps, cela allait beaucoup mieux. Nul problème quant à une mise en production (le gain est faible sur de petites tailles à écrire, et aucune échéance de temps n'était à respecter absolument), mais gros problème quant à la mise en place usine de master complet sur une mémoire d'un giga octets : la décision fut prise d'utiliser en interne, pour l'opération de flashage, le noyau d'OpenBSD 4.3 sur le système 4.2 longuement mis au point. Et un problème arriva rapidement : le but étant de flasher une image téléchargée sur le réseau via notre ramdisk hybride 4.2/4.3 (opération très classique inspirée par la méthode de gestion de parcs via PXE), une configuration réseau via ifconfig était nécessaire, et autant un ifconfig <interface> <ip> passe très correctement, autant un ifconfig tout court renvoie les pires erreurs imaginables, au lieu de lister les interfaces et leurs propriétés. On ose imaginer ce que cela donnerait pour des programmes plus complexes dont il faudrait retester toutes les options possibles pour s'assurer du bon fonctionnement complet du système : ce n'est pas envisageable !

Fort heureusement, cette éventualité d'impossibilité de pouvoir changer le noyau seul sans le reste du système, ou inversement, avait été évoqué dès le début, et cela ne pose aucun problème à notre projet (il n'est pas impossible de patcher manuellement des logiciels particuliers et d'en assurer la rétrocompatibilité, cependant, mais on ne saurait changer totalement de version). Cependant, ce genre de problématique est à prendre à compte dès lors que l'on souhaite obtenir un système pouvant être mis à jour de manière massive, par exemple lorsque Nokia décide de changer l'interface complète de son système basé sur Maemo (incluant une mise à jour de la libC) ; en l'occurrence, leur choix de reposer sur un ramdisk pour Linux a eu pour avantage la possibilité de mettre à jour le noyau pour activer au passage le support de l'EABI (ce qui impliquait à l'époque du noyau 2.6.16 une recompilation totale du système ; il existe à présent une fonctionalité de rétrocompatibilité avec/sans EABI marquée expérimentale dans le kernel), mais cela ne saurait être toujours le cas (notamment parce que cette solution de ramdisk implique un temps de boot allongé, c'en est même indécent sur le N770) : comme nous le disions la dernière fois, ne serait-ce que pour des questions de sécurité, positionner le noyau en flash au dehors de tout file system est pratique extrêmement courante (on remarquera d'ailleurs l'option "-kernel" de qemu qui permet de faire booter un système de fichier en utilisant un kernel Linux externe). Il est donc souvent inenvisageable de mettre le noyau à jour (on peut toujours faire des dd avec seek pour écrire dans /dev/mem en raw, en calculant de ne pas déborder et en serrant les fesses... Je ne conseille pas !), alors que le système peut être appelé à évoluer (la mode est au reflashage de firmware ajoutant et corrigeant des fonctionnalités, les téléphones proposent cela, toutes les STB des FAI du marché aussi).

On peut élargir cette vision ultra-modulaire des choses au noyau Linux lui-même, qui hérite en sa conception intrinsèque de cette philosophie : alors que le noyau BSD forme un tout dont on déconseille très fortement de toucher à quelque option que ce soit (et il n'y a qu'à voir le fichier de configuration pour s'en convaincre), le mode de compilation de Linux se base sur une interface (en ligne -- make config --, en curses -- make menuconfig --, en Qt -- make xconfig --, ou en GTK -- make gconfig), où l'on coche et décoche ce que l'on souhaite (avec quasiment toujours la possibilité de mettre un support kernel en module chargeable et déchargeable à chaud), et uniquement cela, on peut même penser à activer le support des modules et tout mettre en dur, en prévision du jour où l'on voudra supporter des matériels brachés sur un hypothétique USB, et que l'on voudra alors supporter en ajoutant un driver au système (y compris rajouter le support d'un système de fichier : je suis bien content de pouvoir brancher mon disque dur en XFS sur mon disque dur multimédia, et j'aimerais bien que ce support revienne comme avant sur ma Freebox). La configuration de Linux supporte en outre la gestion des dépendances des modules les uns aux autres, et au final, alors que le projet OpenBSD dont la cible est l'informaticien expérimenté est peu propice au bidouillage, les sites pour utilisateur débutant de Linux proposent des tutoriels de (re)compilation du noyau !

Lorsque l'on voit sur distrowatch l'hétérogénéité des versions logicielles utilisées pour de mêmes kernels Linux (qui eux-mêmes ont un nombre de versions différentes très important, et non une release chaque semestre), ou inversement d'ailleurs (de mêmes versions logicielles pour des kernels différents), on voit bien que le problème ne se pose pas pour GNU/Linux : sa conception modulaire puisqu'agrégative de projets différents (GNU, Linux, autres projets de l'embarqué greffés sans pouvoir préjuger des autres logiciels employés, la Busybox marchant tout aussi bien avec la glibC qu'avec l'uClibc), assure une supériorité technique indéniable. Si l'on considère que les autres projets propriétaires de l'embarqué ont toujours été conçus comme le sont les projets BSD (incompatibles entre eux par ailleurs), on peut donc préjuger là encore d'un avantage majeur de l'emploi du noyau Linux et des projets libres utilisés pour consituer un système d'exploitation complet, dans la droite ligne de ce qui est attendu d'un système embarqué moderne gérant la communication, et donc potentiellement la mise à jour, tout autant que la possibilité de faire "librement" son marché entre les versions logicielles, amenant au problème du packaging (il faut choisir des versions logicielles compatibles entre elles, bref gérer la problématique propre à toute distribution Linux, qu'elle s'appelle Debian, OpenSUSE ou OpenEmbedded), mais aussi à sa puissance incomparable et jamais égalée par aucune autre solution logicielle existante.

- page 1 de 2