Android, le MS-DOS de la téléphonie mobile?
Il y a un an, j'avais indiqué dans une note ici même que selon moi la plate forme Android de Google allait devenir pour la téléphonie mobile ce que MS-DOS avait été pour le PC. A l'époque le pari était un peu hardi. Au Mobile World Congress qui venait de se terminer, on pouvait voir tout au plus deux à trois terminaux équipés de cette plate forme, et le scepticisme était de mise chez les analystes. Mon raisonnement était le suivant: Android joue sur sa performance technique (c'est une bonne plate forme, bien conçue et robuste qui complémente un noyau de base Linux) et sur son modèle économique: il est gratuit. Il est lancé dans un contexte dans lequel les grandes plates formes concurrentes sont en difficulté: Microsoft Windows Mobile, malgré la qualité de certains de ses composants, est très inférieur en termes d'expérience utilisateur et est cher, il est qui plus est vieillissant. Symbian est très complexe à programmer et bien que mis progressivement en open source, il reste sous le contrôle complet de Nokia. Le monde Linux (Limo) peine à imposer une distribution qui aille au-delà d'un simple noyau et à offrir des composants, notamment d'interface utilisateur, bien adaptés au mobile. Les systèmes d'exploitation classiques dits "temps réel" comme Nucleus sont eux aussi trop limités pour "suivre" l'évolution rapide imposée par l'iPhone d'Apple en termes d'interface utilisateur. Il y a toutefois quelques différences avec MS-DOS, la principale étant que MS-DOS n'était pas gratuit, et qu'il n'était pas modifiable à volonté par les fabricants de PC. Du point de vue du fabricant de téléphone mobile qui cherche une plate forme, tous les arguments semblent être en faveur d'Android. Et de fait, depuis l'année dernière, à peu près tous les fabricants ont annoncé, et certains déjà introduit, des téléphones équipés d'Android. Il n'y a désormais plus aucun doute sur la viabilité industrielle de cette plate forme. La question qui subsiste est celle de savoir si, comme MS-DOS, elle deviendra dominante. Face aux arguments en faveur du oui, on peut avancer quelques raisons de douter. D'une part, l'expérience MS-DOS a servi de leçon et aucun acteur de l'industrie ne souhaite voir émerger un acteur aussi dominant que Microsoft. Tout le monde se plaint de la fragmentation de l'univers mobile en de multiples plates formes concurrentes et incompatibles, mais la vérité est que au moins, comme ça, personne ne domine autant que Microsoft dans le domaine des PC. La fragmentation est donc là pour durer. C'est d'autant plus vrai que les ambitions de Google dans le domaine mobile sont claires. Les opérateurs, par exemple, sont tentés de jouer la carte Google mais savent également que ce dernier souhaite les reléguer au range de fournisseur de tuyaux, comme ce qui se fait dans le monde PC avec les fournisseurs d'accès Internet. Les fabricants de téléphones eux aussi sont tentés par les avantages évidents d'Android, qui leur offre une possibilité de contrôle, mais la décision récente de ce dernier d'introduire son propre téléphone refroidit notablement leurs ardeurs... Android se retrouve un peu dans la situation de Symbian, trop dépendant de Nokia pour être vraiment neutre. La stratégie de Google consistant à concurrencer ses propres "clients" se révélera sans doute à courte vue dans une optique de pénétration rapide de marché.
Au final que reste-t-il? Malgré les réticences de certains acteurs, on peut envisager une domination rapide d'Android dans le domaine "ouvert" avec lequel coexisterait quelques plates formes plus ou moins fermées, et notamment Apple et RIM. Google et Apple sont donc les grands opposants des batailles mobiles à venir, et comme l'annonçait récemment BusinessWeek, ils ne peuvent désormais plus être amis. L'incertitude dans ce domaine sur de tels enjeux fait que cette industrie continue à être fascinante. Quant on songe que l'un des modèles classiques de l'innovation estime qu'une industrie, après une période de ferment créatif, se stabilise autour d'un design dominant, on voit ici un contre exemple presque parfait: la téléphonie mobile est née dans les années 70 et elle reste caractérisée par des incertitudes et des bouleversements continus.
Posted by Philippe Silberzahn on février 1, 2010 at 07:00 AM dans Actualité, Théorie | Permalink | Commentaires (0) | TrackBack
L'innovation, ça sert aussi - d'abord? - à réduire les prix
Une conception très répandue de l'innovation est qu'elle consiste à créer de nouvelles offres ou de nouvelles méthodes. Dans le management de l'entreprise, il y aurait donc le domaine noble, celui de l'innovation, et le domaine de l'intendance, celui de la réduction des coûts. Rien n'est plus faux. L'un des apports fondamentaux du système capitaliste consiste à innover pour réduire les coûts, et donc les prix.
Pour reprendre ce que disait Schumpeter dans son monumental Capitalisme, Socialisme et Démocratie, la force du système capitaliste ce n'est pas l'innovation; d'autres civilisations et d'autres systèmes politiques ont innové également dans certains domaines (par exemple, l'URSS dans les technologies de l'espace). La vraie force du système capitaliste c'est de démocratiser l'innovation en la rendant accessible au plus grand nombre à la fois par la logistique qu'il met en oeuvre mais aussi et surtout par la baisse continue des prix que son efficacité induit. Le symbole du système capitaliste, ce n'est donc pas tant la startup que Wal-Mart, le supermarché low-cost dont on estime qu'il permet chaque année aux américains d'économiser 50 milliards de dollars. Ce n'est pas rien pour ceux qui veulent boucler un budget chaque semaine. Schumpeter résume ainsi l'argument: "Le moteur du système capitaliste est avant tout un moteur de production de masse, ce qui signifie production pour les masses. Ce qui est typique de la production capitaliste, c'est le tissu à bas prix, le coton à bas prix, ainsi que les bottes, les voitures, etc. et non des amélioration qui profitent aux plus riches. La reine Elizabeth avait des bas en soie. Le succès du système capitaliste ne consiste pas à lui en fournir plus, mais à les rendre accessibles aux ouvrières."
Contrairement à ce qu'estime The Economist dans son remarquable article "The Silence of the Mammon", je ne pense pas que défendre ce système au nom de la formidable création de richesse qu'elle permet, et surtout de sa capacité à rendre accessible au plus grand nombre des biens et des services, soit une forme d'apaisement envers ses détracteurs. Au contraire, c'est s'appuyer sur sa force sans prétendre lui faire endosser d'autres responsabilités.
Posted by Philippe Silberzahn on janvier 25, 2010 at 07:00 AM dans Opinion, Théorie | Permalink | Commentaires (0) | TrackBack
L'opposition Radical-Incremental n'est pas pertinente
L'opposition entre innovation radicale et innovation incrémentale est un des fondements des théories de l'innovation. Tandis que l'innovation incrémentale consiste à améliorer les produits existants, l'innovation radicale consiste à inventer des nouvelles catégories de produits qui sont à la fois nouveaux pour le marché et pour l'entreprise. Le livre fondateur de Clayton Christensen "Innovator's dilemma" qui, rappelons-le, n'a pas été traduit en français, montre comment les acteurs installés sur un marché profitent des innovations incrémentales mais sont le plus souvent marginalisés à la suite d'une innovation radicale. Par exemple, Kodak a très mal géré l'arrivée de la photo numérique. Initialement, Christensen a posé le débat en termes de technologies, s'appuyant sur la fameuse courbe en S de progression d'une technologie pour montrer comment une technologie dépassait l'autre. Plusieurs chercheurs ont montré que sa thèse ne s'appliquait pas toujours: il y a de nombreux exemples d'entreprises capables non seulement de survivre à une innovation radicale sur leur marché, mais d'en profiter (par exemple IBM ou récemment Renault avec la Logan). L'opposition radical-incrémental est donc intéressante, mais pas opérante pour comprendre la dynamique de réussite sur un marché entre acteurs en place et nouveaux entrants. Plus tard, Christensen est revenu sur la question et a admis que la véritable catégorisation se fait en termes de modèles d'affaire. Ce qui importe c'est de savoir si l'innovation entre en conflit avec le modèle d'affaire de l'entreprise ou pas. Certaines innovations radicales se conforment assez bien au modèle d'affaire en place, c'est le cas de la téléphonie mobile pour les opérateurs télécom fixes: au fond, le modèle est très similaire et les compétences également, même si sur le plan technologique le saut est très important. C'est donc sans surprise que les opérateurs fixes ont réussi à devenir des acteurs du mobile. Si, en revanche, l'innovation radicale entre en conflit avec le modèle d'affaire, alors le "dilemme" joue. C'est par exemple le cas des applications Web commen Salesfore qui menacent un acteur comme SAP. SAP pourrait parfaitement créer une offre Web, mais cela supposerait un modèle (en gros, abonnement mensuel de quelques dizaines d'euros) complétement différent de celui actuel (licence très élevée, prestations de développement et de maintenance, etc.) Christensen a donc adapté sa catégorisation et utilise donc les termes de "disruptive innovation" et "sustaining innovation". Le terme "disruptive" n'étant pas évident à traduire en français, on pourrait dire "innnovation discontinue" et "innovation continue". A noter que l'innovation discontinue peut également être exprimée sous forme d'innovation de modèle d'affaire.Posted by Philippe Silberzahn on janvier 13, 2010 at 09:35 PM dans Théorie | Permalink | Commentaires (0) | TrackBack
Après la délocalisation, la relocalisation?
Connaissez-vous Narayana Murthy? Si non, vous devriez. C'est le fondateur d'Infosys, la première société de service indienne: 1,6 milliards de dollars de chiffre d'affaire, 40 nouveaux ingénieurs recrutés par... jour. Encore un gueux qui a débuté dans sa cuisine... Au hasard d'une lecture dans Fortune, je note sa citation préférée, qui vaut vraiment la peine de s'y arrêter: "L'amélioration de la productivité vient de la conversion des transactions synchrones en transactions asynchrones". Par exemple, passer du téléphone (synchrone) à l'email (asynchrone). A première vue, cela tombe sous le sens et il s'agit d'une excellente formalisation des derniers progrès de la technologie. L'asynchrone permet par exemple la constitution de larges bases de données qui accumulent le savoir. Elle permet aussi de réfléchir avant de répondre. Elle permet aussi, plus sournoisement, la sous-traitance en dissociant les acteurs et en les reliant par un fil asynchrone: le programmeur français va se coucher en passant la main à un programmeur indien au loin.
Et pourtant, dans le même numéro de Fortune, je lis avec intérêt l'histoire de Michael Fields, entrepreneur, dirigeant de Kana, une entreprise de logiciel, qui a renoncé à la sous-traitance et qui a tout rapatrié chez lui. La raison? Selon lui, la sous-traitance est un non-sens économique, à moins d'être une entreprise de très grosse taille. On passe plus de temps à gérer la gestion qu'à faire le travail. En outre, la sous-traitance consiste à transférer sa propriété intellectuelle à des tiers, que l'on ne contrôle pas, d'autant moins qu'eux-mêmes sont soumis à un turnover très important. Est-ce un risque raisonnable? Mais ce n'est pas là le plus important. Michael Fields estime que le développement logiciel est un processus collaboratif qui fonctionne mieux lorsque tous les acteurs - concepteurs, gestionnaires de projet, programmeurs, marketing, etc. - sont sous un même toit. "Si votre équipe n'est pas fortement soudée, vous verrez des ré-écritures, des problèmes de performance, et plus de retards" indique-t-il. La séparation entre conception "à l'ouest" et réalisation "à l'est" est en effet un non-sens industriel pour quiconque sait ce en quoi consiste le développement logiciel. Les industriels ont appris depuis longtemps qu'on ne pouvait séparer conception et réalisation, mais, semble-t-il, les informaticiens ne le savent pas encore. Ou plutôt, ceux qui les gèrent ;-) Une bonne organisation et une bonne équipe suffisent à augmenter le niveau de créativité, de réactivité et au final de productivité pour largement compenser les coûts salariaux. Quiconque a été associé à un projet sous-traité en Inde le sait aussi. En substance, Michael Field prône... une approche totalement synchrone. Ce qu'il suggère, au contraire de N.Murthy, c'est que l'asynchrone, et aussi la sous-traitance, sont en fait des sources de pertes de productivité. Tout le monde sous un même toit, travaillant ensemble de manière synchrone, sans déperdition d'énergie, sans perdre de temps à gérer la gestion. Le synchrone a de l'avenir.
Posted by Philippe Silberzahn on mars 16, 2006 at 07:00 AM dans Théorie | Permalink | Commentaires (0) | TrackBack
Conférence de Michel Serres sur la technologie
Une conférence passionnante de Michel Serres à l'Ecole Polytechnique organisée par l'INRIA dans le cadre de la culture Web. Non ne partez pas... Le thème est celui des nouvelles technologies et de ce qu'elles changent. C'est bien connu, lorsque les temps sont incertains (vous me direz, y a-t-il eu une époque où les temps ont été certains? Mais c'est un autre débat), il faut consulter les philosophes - sans bien sûr forcément les écouter.
Serres fait d'abord remarquer que beaucoup de choses que nous pensons nouvelles ne le sont pas: création et transmission rapide d'information sont vieilles comme le monde. Hannibal en Italie était informé presqu'en temps réel par sa base tunisienne, César se plaignait que les gaulois connaissaient ses informations avant qu'elles n'arrivent à Rome. Mais ce qui est nouveau avec le net c'est la dissociation entre l'adresse logique et l'adresse physique. Il y a création d'un nouvel espace dont le droit est à inventer. Selon lui, toute technologie est une extension de l'homme, une sorte de sous-traitance de ses capacités à l'outil. L'internet permet de sous-traiter ses capacités cognitives, comme le livre avait permis à nos ancêtres de sous-traiter la mémoire. Libéré du besoin de tout apprendre par coeur, ils avaient démultiplié leurs capacité cognitives, et Serres y voit là un facteur fondamental de l'explosion de la science moderne à cette époque.
Faut-il avoir peur de l'importance de la technologie? Serres se veut optimiste: chaque nouveauté est accueillie avec crainte et il raconte avec malice que l'arrivée des animaux d'élevage il y a plusieurs milliers d'années avait entraîné des épidémies très graves. Aujourd'hui, le principe de précaution interdirait cette innovation dangereuse. Selon lui, la technologie libère l'homme et il ne voit aucun déterminisme ni aucune soumission. La conférence se termine sur une belle anecdote où il raconte qu'étant marin dans sa jeunesse, il correspondait avec sa petite amie par lettre, ce qui évidemment n'était pas très pratique, ne pouvant envoyer ou recevoir que dans chaque nouveau port. Aujourd'hui, un coup de téléphone ou un email rendent l'amour distant possible. Si ça, ce n'est pas un résultat merveilleux de la technologie...
La page de la conférence: ici.
Posted by Philippe Silberzahn on février 22, 2006 at 07:00 AM dans Théorie | Permalink | Commentaires (7) | TrackBack
La convergence, c'est le code
La convergence c'est le code. Sous ce titre un peu bizarre se cache une analyse assez fine de Pierre Bellanger, patron de Skyrock. Alors qu'on parle sans arrêt de convergence, on met derrière ce mot un peu tout ce qu'on veut. Convergence des formats, convergence des technologies, etc. Bellanger estime lui que la vraie convergence, c'est le code, c'est à dire le logiciel qui permet à tous ces formats de s'unifier, et notamment l'interface utilisateur. J'avais trouvé son texte un peu banal à la première lecture, mais c'était une erreur. Comprendre l'importance du logiciel n'est pas banal. Celui-ci est souvent sous-estimé, et je peux penser à deux industries qui sont peuplées de gens qui n'ont pas pris la mesure de son importance. Les médias bien sûr, et là Bellanger s'en donne à coeur joie, et les télécoms, sujet que je connais un peu mieux. Depuis des années, les opérateurs veulent définir l'interface utilisateur des téléphones en produisant des specs toujours plus complexes et sophistiquées, qui doivent être implémentées tant bien que mal par les fabricants. Si les opérateurs avaient compris l'importance du code dans leur métier, il auraient déployés leurs téléphones beaucoup plus rapidement. Bellanger fait malicieusement remarquer qu'il y a un acteur qui, lui, a compris l'importance du code, et c'est naturellement Microsoft.
A lire ici: Bellanger, la convergence c'est le code.
J'inaugure avec ce billet la catégorie "Merci Jérôme" pour les billets sur des sujets suggérés par mon ami Jérôme, véritable tête chercheuse de l'Internet. Ca me simplifiera les références à ses suggestions...
Posted by Philippe Silberzahn on février 20, 2006 at 07:00 AM dans Théorie | Permalink | Commentaires (0) | TrackBack
Les marchés bilatéraux
Un article très intéressant de The Economist mentionnait récemment les travaux récents dans le domaine que les économistes appellent les marchés bilatéraux (two-sided markets). Un marché est dit bilatéral quand l'offre et la demande sont interdépendants pour créer le marché. Par exemple, si vous décidez de lancer une nouvelle carte de crédit, les clients ne la prendront que si un nombre minimum de commerçants l'acceptent. Inversement, les commerçants ne l'accepteront que si un nombre minimum de clients la possèdent et l'utilisent. La rupture d'un tel cercle vicieux ne peut se faire qu'avec des stratégies de tarification particulières. Par exemple, pour lancer sa Xbox, confrontée au même type de problématique, Microsoft subventionne les développeurs de jeux, et vend sa machine à perte. L'idée est que plus il y aura de machines vendues, plus les fabricants de jeux seront incités à produire une version pour la Xbox,... ce qui augmentera les ventes de Xbox. On retrouve cette problématique dans de nombreuses industries: compagnies aériennes avec leurs programmes de miles, cartes de crédit, mais aussi et surtout dans la technologie avec la fameuse notion de plates formes: intel, Microsoft Windows, Palm, etc. Autant la rupture du cercle est difficile, autant pour celui qui y arrive, les bénéfices sont importants. Car une fois que le marché bilatéral est établi, et pour peu qu'il soit bien géré, il constitue souvent une forteresse proche d'un monopole. Ce qui explique l'intérêt des économistes et, surtout, des régulateurs. La subvention initiale est souvent vue comme du dumping surtout si elle vient d'un acteur fortement établi dans d'autres domaines (ex: Microsoft). Le monopole résultant, au lieu d'être vu comme la juste rétribution d'un effort de subvention, est vu comme une pratique anti concurrentielle. On conçoit dans ces conditions que la tarification soit très complexe, car il y a manifestement interdépendance entre plusieurs produits. La stratégie des fabricants d'imprimantes est identique: vendre l'imprimante couleur à perte (50 euros) et se rattraper sur la cartouche lorsque le client est "prisonnier".
La publication (en libre accès) du papier de Jean Tirole et Jean-Charles Rochet mentionné par The Economist est l'occasion de saluer la réussite de l'Université de Toulouse qui a su développer une recherche de niveau mondial dans le domaine de l'économie, ce qui est très rare pour des équipes françaises. On mentionnera aussi le papier de David Evans, plus facilement lisible.
L'article de The Economist (hélas réservé aux abonnés): ici.
Posted by Philippe Silberzahn on décembre 21, 2005 at 07:00 AM dans Théorie | Permalink | Commentaires (0) | TrackBack
Le mème, un concept utile pour étudier les mécanismes profonds de l'évolution et de l'innovation
Et si l'innovation résultait de notre capacité d'imitation? Selon Richard Dawkins, auteur du Gène égoïste, la culture humaine serait principalement le résultat de l'apparition d'une nouvelle sorte de réplicateurs, les mèmes, qui ont envahi tout l'espace disponible dans les cerveaux et les supports des échanges entre les hommes. Dawkins propose de créer une nouvelle science, la mémétique, qui est aux idées et à la connaissance ce que la génétique est à l'organisation cellulaire. Un mème est "une idée, un comportement, un style ou un usage qui se propage de personne à personne au sein d'une culture". Les mèmes constituent une force puissante qui pourrait avoir façonné notre évolution culturelle et, par rétroaction, biologique c'est-à-dire finalement génétique.
Une idée que reprend Susan Blackmore, auteur de "Pourquoi les hommes singent". Elle considère que le fait nouveau fut l'apparition chez les hominiens de la capacité à imiter, vers deux millions d'années avant JC, c'est-à-dire peu avant l'invention des outils. Elle affirme que les animaux ne sont pas capables d'imitation car il s'agit d'une activité complexe. Ce que l'on appelle imitation chez un animal constitue en fait l'adaptation d'un comportement inné à une situation nouvelle. L'imitation généralisée de toutes sortes d'activités non spécifiées est bien plus difficile. Elle constitue une aptitude précieuse, car son détenteur bénéficie ainsi du savoir ou de l'ingéniosité des autres.
L'imitation s'est développée chez les hominiens à partir du moment où certains gestes se révélant propices à la survie, par exemple tailler un silex, ont été reproduits par les autres. L'évolution génétique a certainement favorisé les imitateurs, ceux-ci ayant plus de succès dans le monde et pouvant donc fonder des familles plus prolifiques. Des "gènes de l'imitation" sont donc apparus et se sont répandus. Tout était alors prêt pour que les mèmes prennent naissance. Que signifie en effet l'imitation ? Elle consiste à créer une entité informationnelle (une sorte de recette) qui circule de cerveaux en cerveaux en se modifiant ou s'enrichissant le cas échéant. C'est cette entité qui constitue le mème.
Les premiers mèmes ont été ceux utiles à la survie, reproduisant des comportements inventés par essais et erreurs qui se sont révélés productifs et qui ont été copiés par les voisins de l'inventeur. Plus généralement, la mémétique pose la question de la place de l'originalité et de la copie dans l'innovation. On sait que les grands artistes se sont formés et développés par la copie des grands maîtres qui les ont précédés. La copie et l'imitation sont aujourd'hui entâchées moralement. La mémétique suggère, au contraire, qu'originalité et imitation sont deux processus indispensables: la première pour l'innovation, la seconde pour sa diffusion, c'est à dire pour la création de valeur associée.
Note: ce post est adapté d'un passage de notre livre "Objectif: Innovation".
Posted by Philippe Silberzahn on décembre 19, 2005 at 07:00 AM dans Le livre, Théorie | Permalink | Commentaires (3) | TrackBack
La gravité selon Microsoft
On m'a suggéré (merci Franck), et parce que ça fait pas mal de temps que je ne me suis pas fait agresser sur mon blog, de tenter d'explorer une théorie que l'on pourrait appeler théorie de la gravité Microsoft (TGM) dans le domaine high-tech.
L'idée vient d'une réflexion suite au pétage de plombs de Steve Ballmer lorsque l'un de ses employés est venu lui annoncer sa démission et son passage chez Google. Franck m'a rappellé une BD Peanuts dans laquelle Snoopy lançait un ballon vers le ciel et, ne le revoyant pas revenir, allait voir Charlie Brown pour lui expliquer le problème. Charlie Brown lui répondait qu'il ne fallait pas qu'il s'inquiète, car tout ce qui est envoyé en l'air finit
toujours par retomber. Alors Snoopy repartait, confiant, et retrouvait effectivement son ballon sur le sol un peu plus loin.
Bill Gates ne ressemble-t-il pas à Charlie Brown? Ce qui nous amène à notre théorie de la gravité. Enonçons-là ainsi: "Dès lors qu'une chose à une masse significative, il coûte plus cher de la faire tenir en l'air que
de la laisser tomber". C'est pour cela que les startups nécessitent des quantités considérables d'argent pour tenir en l'air. Et plus elles veulent dominer le monde, plus elle acquièrent de masse, et plus elles doivent lutter contre la gravité.
Quand le Google challenger (et tant d'autres...) gagne en masse, il a donc intérêt à s'assurer qu'il possède l'énergie nécessaire pour sa satellisation. Si on considère que dans le monde de l'informatique, la masse est fonction du nombre d'ennemis qu'on se fait (l'arrogance est un des paramètres) et que l'énergie est le cash, ils ont bien raison d'avoir fait le plein cet été.
Quand à Bill, il a bien compris cela depuis longtemps et il reste sur terre! Sa masse croît continuellement mais sa position au sol fait que cela ne le gêne pas. Et, cerise sur la gâteau, cette même position fait qu'il récupère les
pièces détachées de tous les crashs. Plus l'objet était chargé, plus il y a de pièces à récupérer ! Gratoche !
Que Steve Ballmer pête les plombs face à Google, soit... mais Bill, lui, doit en définitive bien se marrer. De toutes façons, il a actuellement assez de féraille à glâner (Palm, dernier en date); plus serait trop (Mac, OpenOffice, ...) C'est aussi pour cela qu'il a investi 150 millions de dollars dans Apple en 1997; pour contrer les lois de la gravité... Si tout tombe en même temps, les mauvaises langues n'hésiteraient pas à l'accuser.
Pour mémoire, se trouvent actuellement en l'air:
- Google : les administratifs et les ex-consultants sont recrutés par wagons, la cote d'amour baisse, la masse croît à une vitesse vertigineuse, aidée en cela par l'arrogance.
- Sun : Java est délaissé par la communauté techie au profit de Python, et de toute façon Scott aime Bill désormais. Scott va faire des serveurs x86 comme Michael, mais avec un OS propriétaire ouvert, à condition que ce ne soit pas Linux, allez y comprendre quelque chose.
- Oracle : le prochain OS de Bill rendra inutile l'acquisition d'un SGBD à part.
- Nintendo et Sony : ils se battent entre eux, la gravité commence à sentir son effet; Sony dépense des milliards pour remonter un peu en altitude en mettant au point... un micro-processeur spécial pour la PS3, quand Bill, lui, parie sur une banalisation du matériel pour abaisser les coûts de développement et rester au raz du sol;
- Firefox : la masse est faible actuellement, et donc la consommation faible, mais il faudra bien un jour qu'elle croisse pour que l'aventure profite à ses protagonistes. La création d'une entité commerciale n'est qu'un premier pas, significatif cependant.
- Eclipse : tout à fait à la marge pour l'instant, mais cette plateforme de développement ressemble de plus en plus à un OS au sens que Bill donne à ce terme. De plus, comme elle ne vise que les techies, tout se passe dans l'ombre, mais les techies sont justement ceux qui produisent de la valeur. Il est stupéfiant de voir le nombre et la qualité de se qui s'écrit aujourd'hui pour Eclipse. Sur Eclipse, l'open source devient sexy... On peut avancer que Eclipse à plus de capacité à être un challenger de Bill que FireFox. Ce que les gens trouvent chouette dans FireFox est décuplé dans Eclipse. Bref, excellent rapport masse/énergie, pour l'instant...
Posted by Philippe Silberzahn on octobre 12, 2005 at 07:00 AM dans Théorie | Permalink | Commentaires (1) | TrackBack
La tragédie des premiers entrants: BuddyPhone et la voix sur IP
Je relatais la mort de Paul Geroski, auteur de Fast Second, dans un billet précédent, et je ne peux m'empêcher de réagir au succès médiatique impressionnant que connaît Google avec son produit GoogleTalk, et avant lui Skype, qui vient d'être racheté pour une fortune. GoogleTalk, tenez-vous bien, permet à deux personnes d'engager une conversation via Internet depuis leur ordinateur. Le produit a été lancé récemment, et la presse a salué l'événement; tout juste si on ne nous a pas expliqué que, enfin, on pouvait se parler gratuitement via Internet. Oui, sauf que Skype fait cela depuis pas mal de temps déjà, et là aussi, son lancement a fait l'objet d'une très forte médiatisation à l'époque (son patron est même considéré comme un visionnaire!). Enfin, grâce à Skype, on allait pouvoir parler gratuitement. Sauf que c'était déjà possible avant: MSN Messenger permet de faire cela très facilement, et Yahoo Messenger aussi. Plus fort encore: pour une somme modique, Skype, via son option SkypeOut, permet de passer un
appel depuis votre ordinateur à un vrai téléphone; ainsi, votre
correspondant n'a pas besoin d'avoir un PC, vous l'appelez sur son
téléphone, y compris à l'étranger, pour une somme dérisoire. Là encore, on nous présente cela comme une vraie révolution.
Oui sauf que l'appel depuis un PC sur un vrai téléphone, Net2Phone le faisait en... 1998. Je me souviens ainsi d'un appel de près de trente minutes, un soir de Noël, entre l'Inde et la France, pour quelques dollars. Net2Phone aujourd'hui? Racheté par AT&T, ils sont toujours en vie mais ont disparu dans l'anonymat.
Quand à l'appel de PC à PC, totalement gratuit, un petit logiciel allemand appelé BuddyPhone le faisait aussi en 1998. Ultra simple, très performant y compris en appel RTC, il m'a permis d'économiser des milliers de francs entre 1999 et 2002, à une époque où on nous expliquait que la VoIP ne marchait pas. BuddyPhone aujourd'hui? Disparu... (apparemment racheté par une société appelée Nikotel)
Voilà une illustration supplémentaire du fait qu'il vaut parfois mieux ne pas être premier dans un marché émergent, sans doute parce qu'avant l'heure ce n'est pas l'heure. Cela montre également que les pionniers disparaissent bien vite de la mémoire collective. Comme disait Stefan Zweig dans sa biographie de Fouché, "La révolution n'appartient pas au premier qui la déclenche, mais au dernier qui la termine." A méditer dans le domaine de l'innovation.
Posted by Philippe Silberzahn on septembre 16, 2005 at 07:00 AM dans Théorie | Permalink | Commentaires (0) | TrackBack