Les grands perdants à cette course à l’innovation pourraient être autant les grands éditeurs de logiciels (Oracle, SAP, IBM) dont les logiciels professionnels pourraient souffrir de l’arrivée de ces nouvelles puces mais également les utilisateurs finaux – les petites et moyennes entreprises – dont la vie économique dépend de ces logiciels et qui vont devoir s’efforcer d’enrayer la progression hors de leur contrôle des coûts de licences logicielles.
Pourquoi une telle frénésie dans le domaine des licences logicielles ? Durant ce mois, des quantités importantes de puces contenant deux processeurs centraux (cores) sur la même pièce ont été distribuées à large échelle sur le marché. Ce nouveau type d’architecture « double cœurs » permet aux équipementiers de fournir un dédoublement de la puissance de calcul tout en diminuant la chaleur émise par la puce.
Les puristes rétorqueront certainement que le « dual-core processing » n’est pas né de la dernière pluie et que des sociétés telles qu’IBM et SUN Microsystems proposent ce type de technologie depuis plusieurs années déjà. Mais ces dernier n’équipaient jusqu’à présent que des stations de travail Unix utilisées dans le monde scientifique et non pas dans l’économie.
L’approche « double-coeur » va s’appliquer à terme à l’ensemble des processeurs utilisés dans la vie industrielle et économique et qui font tourner des applications populaires de type Microsoft Windows, Linux, pour n’en citer que deux et qui ont contribué au succès du modèle Intel Pentium dans le passé. En avril 2005, Intel et AMD annonçaient séparément que tous deux allaient livrer des versions dual-core de leurs processeurs haut de gamme un peu plus tard cette année. Le modèle Opteron dual-core d’AMD a été le plus rapide à quitter les rampes d’assemblage du fondeur américain et est proposé en quantité commerciale au prix de $ 2,650 la pièce. Intel n’est pas en reste puisque l’autre fondeur compte écouler des versions double-coeur de ses puces de serveur Xeon et Itanium dans des volumes élevés quelques mois plus tard cette année encore. Et la demande se fait sentir puisque les principaux fabricants de serveurs – HP, SUN Microsystems et IBM – ont commencé à prendre commande de leurs nouveaux systèmes informatiques « dual-core ».
Cette évolution pourrait changer le modèle d’affaires de certains éditeurs de logiciels. Si deux processeurs sur une simple puce peuvent abattre deux fois le travail d’un simple processeur, pourquoi dès lors ne pas se faire rétribuer en fonction du nombre de processeurs qui utilisent leur logiciel ? Le principal fournisseur de base de données au monde, Oracle étudie la question et a déjà exprimé ses craintes en la matière en annonçant que sa clientèle se verrait facturer à l’avenir en fonction du nombre de coeurs et non plus du nombre de processeurs utilisés. Cet éditeur utilise actuellement deux modèles différents de licence. L’un se base sur les utilisateurs nominaux et se destine aux clients disposant d’un nombre plus ou moins fixe d’utilisateurs. L’autre modèle est destiné aux entreprises disposant d’une population d’utilisateurs difficile à définir et se base sur le nombre de processeurs qui tournent les logiciels Oracle à l’intérieur d’une entreprise.
IBM a été même plus circonspect en annonçant que ses licences logicielles destinées aux processeurs Opteron ou Xeon « single-core » ou « dual-core » seraient facturées à un prix identique même si elle n’a pas encore dévoilé sa politique de licence concernant ses grosses suites logicielles telles que DB2 et WebSphere.
Un autre éditeur tente de capitaliser sur l’ancien modèle. C’est bien évidemment le groupe Microsoft. En octobre dernier, le plus gros contributeur de Redmond annonçait qu’elle licencierait à l’avenir ses logiciels de serveur sur la base du nombre de processeurs et non pas sur le nombre de coeurs implémentés. Mais ce n’est pas l’altruisme qui guide le groupe de Bill Gates. C’est plutôt l’assurance que la clientèle utilisant la famille de produits Window Server n’aurait pas à payer plus cher lorsqu’ils actualiseront leur processeurs aux multicores.
Mais le dilemme de l’industrie logicielle en matière de licence ne s’arrête pas en si bon chemin. Deux autres développements majeurs pourraient venir renforcer cette certaine anarchie. Le premier facteur s’intitule « partitionnement et visualisation » et exprime le fait d’utiliser un simple ordinateur afin de créer l’illusion de disposer de multiples machines disposant chacune de leur propre système d’exploitation et disposant chacune d’un accès exclusif à l’ensemble des ressources réelles de l’ordinateur. Le deuxième facteur représente la tendance largement répandue au niveau industriel au « provisionnement rapide ». Une manière d’obtenir rapidement de la capacité de calcul sur demande. L’idée de ce concept est de rendre des ordinateurs entiers en tant que parties de disques durs ou de rendre disponible instantanément des « cores » individuels avec le système d’exploitation nécessaire et une pile entière d’applications logicielles afin de mener à bien une tâche de calcul spécifique.
Les groupes Hewlett-Packard et IBM ont développé de nouveaux types de licences dans ce sens permettant l’utilisation intermittente de logiciels mais le reste de l’industrie n’a pas suivi et se cherche encore dans ce domaine. Les jours des licences logicielles par installation semblent donc être comptés…au profit de licences gratuites financées par des coûts de maintenance et de support, à l’instar des principaux éditeurs open-source tels que Red Hat, Novell, Mandriva.
Dans tous les cas, les utilisateurs d’informatique disposent aujourd’hui d’une pléthore d’alternatives, ce qui devrait faire réfléchir les différents acteurs du marché afin de choisir le bon modèle qui leur permettra de pérenniser leurs activités à moyen et long terme. Un défi majeur de plus à relever pour l’industrie informatique.
La gravue des transistors continue son trend vers l’infiniment petit. De 90 nanomètres (nm) aujoud’hui, leur taille se réduira à 65 nm en 2006, puis 45 nm en 2007 pour avoisiner les 8 nm en 2017. Selon Intel, 70% des ordinateurs de bureau et une grande partie des portables seront équipés de puces à double cœurs dès la fin 2006. Et la multiplication des cœurs ne s’arrêtera pas en si bon chemin puisque les futures puces d’AMD et d’Intel devraient intégrer 4 cœurs d’ici à l’an 2008. Ces super-puces sont prédestinées à faire tourner les futurs systèmes d’exploitation très gourmands en puissance de demain, à l’instar de Longhorn, le successeur de Windows XP, annoncé pour l’été 2006.