r66 schreef op 25 november 2025 16:48:
[...]
Een gpu kan je zien als een hele boel processors, die allemaal op een stukje geheugen / beeldscherm mappen.
Al die processors werken dezelfde opdrachten uit, en voeren dit op een stukje geheugen / beeldscherm uit.
Als je een NN hebt, kan je die zien als een hele hoop platte schermen op elkaar, dan wordt elke berekening voor de volgende laag gedaan, door voor elke pixel een berekening (met gewichten per pixel op de input laag) te doen op de vorige laag met een lokaal stukje scherm van de vorige laag.
Tensor berekeningen.
developer.nvidia.com/tensorrtBij Nvidia is deze opportunity er toevallig bijgekomen, want met die vele processors kan je natuurlijk van alles doen. Maar het is daar nooit van scratch ontwikkelt om tensor berekeningen te doen.
Het is nogal logisch dat als je wil concurreren met Nvidia, dat je hier een veel beter ontwerp voor probeert te maken.