Le côté technique du travail d’un ordinateur

L’Hyper-Threading

Hyper-Threading est une technologie d’Intel(SMT chez AMD) qui consiste à créer deux processeurs logiques/virtuels par processeur physique. Ces deux processeurs logiques partagent les éléments du cœur physique. Ce qui permet à deux instructions d’être traitées simultanément. Dans chaque cœur, les voies d’accès vers l’ALU ont été doublées pour s’assurer d’envoyer des données en masse. Cette technologie est très utile dans les applications conçues pour une utilisation multi-thread maximale puisque les gains de performance peuvent atteindre 30 %. Cette amélioration de performance de 30 % nous montre que doubler le nombre de cœurs avec l’hyper-threading n’est pas la même chose que de doubler le nombre de cœurs physiques. Donc quand vous voyez un processeur 4 cœurs, 8 threads, vous savez maintenant que ce processeur a 4 cœurs et que l’on simule 8 cœurs logiques (2 par cœurs).

La finesse de gravure

Un processeur est composé de transistors, le transistor est un semi-conducteur lié à la puissance de calcul du processeur. Plus il y en a, plus ce dernier sera puissant. Le transistor agit comme un interrupteur, il permet donc de moduler le signal électrique utilisé dans l’ordinateur. Les transistors sont gravés généralement sur du silicium. L’enjeu de la finesse de gravure est là, puisque plus la finesse de gravure est petite, plus on peut graver de transistors, plus la consommation est basse et moins le processeur chauffe. Elle permet aussi d’augmenter le nombre de puces par plaquettes de silicium fabriquées. Donc la miniaturisation nous permet également d’augmenter le nombre de cœurs des processeurs. La diminution de la finesse de gravure est donc importante car elle nous permet soit de créer des processeurs plus puissants pour une même consommation ou un processeur de même puissance pour une consommation réduite. Actuellement les processeurs atteignent une finesse de gravure entre 14 et 7nm.

Première limite

Au début des années 2000, les microprocesseurs ont atteint un palier physique. En effet, la fréquence augmentait directement proportionnellement avec le nombre de transistors, ainsi la chaleur produite par le courant électrique devenait également de plus en plus importante. Les fabricants ont alors décidé de diviser les processeurs en ce qu’on appelle les cœurs comme ont la vu précédemment. Les microprocesseurs multi-cœur sont nés et les fabricants ne font plus la course à la fréquence la plus haute. Cette solution a permis de continuer la montée en puissance des microprocesseurs mais ces dernières années on est arrivé à une limite plus difficile à

franchir.

L’effet tunnel

Comme déjà dit, les transistors d’Intel ont depuis quelques années franchi la barre des 14nm. Pour comparer, le plus petit virus connu a une taille de 10nm. La cause principale du ralentissement est que les transistors sont de plus en plus chers à produire et ne pourront plus être diminués énormément. Le problème que nous rencontrons est qu’à cette taille, les transistors sont tellement petits que les électrons qui passent dedans commencent à agir de manière anormale en passant d’un transistor à l’autre sans prévenir. Ce qui compromet le fonctionnement de toute la puce. C’est cela que les chercheurs appellent l’effet tunel.

La bataille dans la finesse de gravure

Aujourd’hui les fondeurs se battent pour proposer une finesse de gravure de plus en plus petite. Actuellement TSMC est une des fonderies de semi-conducteurs les plus importantes. Elle a déployé en 2019 son procédé de gravure en 7nm et veut commencer à déployer son procédé en 5nm dès 2020. Samsung veut également déployer du 5nm en 2020 et prévoit déjà de développer le 3nm. Mais pourquoi vouloir diminuer la finesse de gravure à tout prix ? Tout simplement pour créer des puces de plus performantes et qui consomment de moins en moins. Cependant cette descente est de plus en plus compliquée et coûteuse. Par exemple: D’un côté, TSMC a investit 25 milliard de dollars pour créer une usine pour le procédé en 5nm. D’un autre point de vu, d’après un article publié en 2013, Intel devait sortir sont procédé 10nm en 2015 suivi du 7nm en 2017. Pourtant, aujourd’hui, les puces 10nm sont seulement annoncée pour 2020. De manière générale, il y a une hausse du temps nécessaire pour qu’une puce double en puissance.

Un ralentissement est-il négatif ?

Un ralentissement ou un arrêt de la loi de Moore a quand même quelques avantages pour les utilisateurs. En effet, les utilisateurs sont les premiers gagnants. Aujourd’hui, presque tout le monde a l’impression de changer d’ordinateur trop vite, en moyenne un ordinateur est vieux après seulement 5 ans et beaucoup de personnes changent leur smartphone tous les 2 ans. Et cela, parce que votre machine ne réalise plus les tâches aussi bien que lorsque vous l’avez achetée. Par exemple, les sites web deviennent de plus en plus dur à charger à cause de fonctionnalités qui sont ajoutées chaque année. Cela ne pose pas de problème pour votre nouveau téléphone mais les plus vieux vont ralentir.

La deuxième raison est qu’à l’époque, les développeurs n’optimisaient pas leurs programmes, c’est à dire qu’ils ne les rendent pas plus faciles à exécuter pour la machine. En effet, puisque la puissance de nos ordinateurs doublait tout les 2 ans, il était économiquement plus intéressant d’attendre la prochaine génération de microprocesseur que de passer son temps à optimiser son programme. Ce qui veut dire qu’avec un ralentissement de la loi de Moore, les développeurs seront obligés s’optimiser leurs programmes . Donc en quelque sorte, nos machines vieillirons moins vite.