Le concept de cette architecture est très simple et en même temps efficace: nous avons une matrice avec deux types de cœurs, certains petits qui sont toujours actifs et qui s’occupent de tâches légères comme surfer sur Internet ou écrire dans Word, et d’autres plus et des cœurs plus puissants, qui sont généralement en panne et en attente d’une tâche qui nécessite puissance plus élevée pour activer et prendre en charge tout. Cette architecture big.LITTLE est utilisée dans les processeurs, où le nombre de cœurs est assez faible, surtout par rapport à un GPU, où le nombre de cœurs se compte en milliers.

NVIDIA Optimus était déjà un peu gros sur les GPU

Beaucoup d’entre vous se souviendront de l’époque où presque tous les ordinateurs portables dotés d’un GPU dédié disposaient de la technologie NVIDIA Optimus. Cette technologie signifiait que lorsque nous étions au bureau ou que nous effectuions des tâches qui n’étaient pas en 3D, la carte graphique intégrée au processeur était utilisée pour économiser de l’énergie, mais lorsque nous exécutions un jeu ou une tâche 3D, les graphiques dédiés étaient utilisés. capable d’avoir toute la puissance. disponible.

NVIDIA Optimus

Cette manière astucieuse de tirer parti du fait que le notebook avait deux GPU est, par essence, une sorte de gros mode PETIT mais brut (au lieu d’être une architecture entière), mais l’idée est fondamentalement la même: quand le GPU n’est pas nécessaire «Big» est éteint et en veille, l’iGPU fait tout le travail tant qu’il le peut, économisant de l’énergie et réduisant la chaleur générée. En cas de besoin, le «gros» GPU entre en action et offre des performances optimales.

Alors, est-ce quelque chose qui peut être mis en œuvre?

Bien sûr, l’idée est très bonne, mais soit ils intègrent deux GPU sur le même PCB pour les mêmes fonctionnalités dont nous avons parlé auparavant, soit les choses se compliquent assez, et ce n’est pas la même chose de travailler avec les 4-16 cœurs qui un processeur peut avoir autant de milliers de GPU (pour mettre cela en contexte, une Radeon RX 6800 XT a 3840 processeurs Shader (cœurs), tandis qu’un RTX 3090 a un énorme 10 496 cœurs CUDA).

Pour une implémentation complète de cette architecture, il faudrait redéfinir le fonctionnement du GPU, car actuellement ils disposent déjà de deux types d’ALU: l’un est utilisé pour des instructions simples et dont la consommation est très faible, tandis que les autres (SFU) sont responsables de l’exécution des opérations les plus complexes telles que les racines carrées, les logarithmes, les puissances et les opérations trigonométriques. Ce ne sont pas de gros noyaux, mais en fait ils sont déjà appelés différemment (FP32 ALU) précisément pour cette raison.

Consommation d'énergie-ALU

Donc, vous voyez, en fait à la fois dans le passé avec Optimus et aujourd’hui quelque chose de similaire à big.LITTLe est déjà implémenté dans le GPU, ce qui se passe, c’est que c’est évidemment différent, cela fonctionne différemment et cela ne s’appelle pas ainsi. Cependant, comme tout semble être orienté vers une plus grande efficacité de la consommation ces derniers temps, c’est quelque chose que nous ne pouvons pas exclure, et bien sûr, NVIDIA et AMD ont le potentiel pour y arriver. Ce serait, bien sûr, une situation idéale pour économiser de l’énergie et produire moins de chaleur, non?