Beleggen.nl Markt MonitorMarkt Monitor

ASML 2025

27.705 Posts
Pagina: «« 1 ... 1323 1324 1325 1326 1327 ... 1386 »» | Laatste | Omlaag ↓
  1. r66 25 november 2025 16:48
    quote:

    Inion schreef op 25 november 2025 16:29:

    GPU's mapte toevallig op Neural Networks? Dat woordje toevallig weet ik niet. Het hele idee van Accelerated Computing is een key-driver achter de visie van Nvidia.
    Een gpu kan je zien als een hele boel processors, die allemaal op een stukje geheugen / beeldscherm mappen.
    Al die processors werken dezelfde opdrachten uit, en voeren dit op een stukje geheugen / beeldscherm uit.

    Als je een NN hebt, kan je die zien als een hele hoop platte schermen op elkaar, dan wordt elke berekening voor de volgende laag gedaan, door voor elke pixel een berekening (met gewichten per pixel op de input laag) te doen op de vorige laag met een lokaal stukje scherm van de vorige laag.
    Tensor berekeningen.
    developer.nvidia.com/tensorrt

    Bij Nvidia is deze opportunity er toevallig bijgekomen, want met die vele processors kan je natuurlijk van alles doen. Maar het is daar nooit van scratch ontwikkelt om tensor berekeningen te doen.

    Het is nogal logisch dat als je wil concurreren met Nvidia, dat je hier een veel beter ontwerp voor probeert te maken.
  2. forum rang 4 TomvH 25 november 2025 16:48
    Waarom zakt AMD eigenlijk zo hard vandaag? En had wat meer van Broadcom verwacht, maar misschien komt het nog vanavond gedurende de VS sessie.
  3. forum rang 10 nine_inch_nerd 25 november 2025 17:09
    quote:

    TomvH schreef op 25 november 2025 16:48:

    Waarom zakt AMD eigenlijk zo hard vandaag? En had wat meer van Broadcom verwacht, maar misschien komt het nog vanavond gedurende de VS sessie.
    Misschien denken velen nog dat AVGO de chips maakt voor GOOGL (?).

    Dit is nl ook gecorrigeerd in dit bericht:
    (This story has been updated to reflect that Broadcom does not physically manufacture Google's TPUs.)
    seekingalpha.com/news/4525870-bofa-re...

    Het is zeer verwarrend.
    www.investing.com/news/stock-market-n...
    www.investing.com/news/stock-market-n...
  4. forum rang 6 Inion 25 november 2025 17:19
    quote:

    r66 schreef op 25 november 2025 16:48:

    [...]

    Een gpu kan je zien als een hele boel processors, die allemaal op een stukje geheugen / beeldscherm mappen.
    Al die processors werken dezelfde opdrachten uit, en voeren dit op een stukje geheugen / beeldscherm uit.

    Als je een NN hebt, kan je die zien als een hele hoop platte schermen op elkaar, dan wordt elke berekening voor de volgende laag gedaan, door voor elke pixel een berekening (met gewichten per pixel op de input laag) te doen op de vorige laag met een lokaal stukje scherm van de vorige laag.
    Tensor berekeningen.
    developer.nvidia.com/tensorrt

    Bij Nvidia is deze opportunity er toevallig bijgekomen, want met die vele processors kan je natuurlijk van alles doen. Maar het is daar nooit van scratch ontwikkelt om tensor berekeningen te doen.

    Het is nogal logisch dat als je wil concurreren met Nvidia, dat je hier een veel beter ontwerp voor probeert te maken.
    Denk, dat je het ietwat te simpel voorstelt.

    Die ASIC's van Broadcom zijn in principe niet anders dan de chips van Nvidia. Het enige verschil is, dat een deel van de funktionaliteit hard gebakken in de chip zelf zit ipv programmeerbaar via een library. Daardoor wordt de chip sneller en zuiniger, maar het toepassingsgebied ook veel beperkter.

    Er hoeft maar iets te veranderen in de toepassing en de chip wordt onbruikbaar.

    Er is genoeg ruimte voor beide richtingen. Zoals altijd slaat de markt weer even door. Of naar boven of zoals nu naar beneden.
  5. r66 25 november 2025 17:54
    quote:

    Inion schreef op 25 november 2025 17:19:

    [...]

    Denk, dat je het ietwat te simpel voorstelt.

    Die ASIC's van Broadcom zijn in principe niet anders dan de chips van Nvidia. Het enige verschil is, dat een deel van de funktionaliteit hard gebakken in de chip zelf zit ipv programmeerbaar via een library. Daardoor wordt de chip sneller en zuiniger, maar het toepassingsgebied ook veel beperkter.

    Er hoeft maar iets te veranderen in de toepassing en de chip wordt onbruikbaar.

    Er is genoeg ruimte voor beide richtingen. Zoals altijd slaat de markt weer even door. Of naar boven of zoals nu naar beneden.
    Ik zeg niet dat Nvidia gelijk weggevaagd wordt, maar al die NN's werken qua basis het zelfde.
    Het is in elk geval logisch dat je daar een beter ontwerp voor kan maken.
    Ik kan me voorstellen dat het helemaal niet digitaal hoeft, omdat de berekeningen niet precies hoeven te zijn. Bij NN's is het helemaal niet erg als er meer ruis op zit.
    Als je ergens een factor 100 of 1000 kan halen hierdoor ben je natuurlijk spek-koper.
  6. forum rang 6 Inion 25 november 2025 17:57
    We zullen zien. Denk, dat ze zowel bij Nvidia als Broadcom als Google als Meta heel goed weten wat ze doen. ;-)
  7. forum rang 7 kassa! 25 november 2025 18:03
    quote:

    nine_inch_nerd schreef op 25 november 2025 17:09:

    [...]

    Misschien denken velen nog dat AVGO de chips maakt voor GOOGL (?).

    Dit is nl ook gecorrigeerd in dit bericht:
    (This story has been updated to reflect that Broadcom does not physically manufacture Google's TPUs.)
    seekingalpha.com/news/4525870-bofa-re...

    Klinkt logisch, anders zouden ze waarschijnlijk ook wel machines van ASML afnemen.
  8. forum rang 10 nine_inch_nerd 25 november 2025 18:09
    quote:

    kassa! schreef op 25 november 2025 18:03:

    [...]

    Klinkt logisch, anders zouden ze waarschijnlijk ook wel machines van ASML afnemen.
    BofA heeft dat zo gecorrigeerd, maar is het toch niet gewoon zo dat AVGO die TPU chips maakt voor GOOGL?
    Dus als META naar GOOGL gaat, zoekende naar een verklaring voor het koersgedrag AVGO - NVDA - AMD:
    - in principe geen issue voor AVGO
    - maar wel voor NVDA en AMD (zij maken chips voor META).
  9. forum rang 10 nine_inch_nerd 25 november 2025 18:25
    quote:

    Inion schreef op 25 november 2025 18:24:

    De chips van Broadcom worden net als die van Nvidia gemaakt door TSMC.
    Maar levert ze wel aan GOOGL.
    “Maken” is ontwerpen en delegeren naar TSMC. Is toch vanzelfsprekend.
    :)

    Dat TSMC nu ook zo zakt, komt door de grotere volume impact van de ontwerpers AMD/NVDA door dit verhaal. ‘kans op missen productie’

    Nb: de schrik ebt weg ondertussen.
  10. forum rang 6 Inion 25 november 2025 18:36
    quote:

    nine_inch_nerd schreef op 25 november 2025 18:25:

    [...]
    Maar levert ze wel aan GOOGL.
    :)

    Dat TSMC nu ook zo zakt, komt door de grotere volume impact van de ontwerpers AMD/NVDA door dit verhaal. ‘kans op missen productie’

    Edit:
    NB: de schrik is weer weg aan het ebben….

    Tbc.
    Ja, tbc idd. Je blijft lachen om de hopeloze reakties in de markt. Nvidia en AMD gaan het prima doen. Net als Broadcom en Google en Meta en Microsoft. Sommigen denken gewoon veel te veel. Altijd slim willen zijn. ;-)
  11. forum rang 4 Fiori 25 november 2025 20:24
    De brede markt begint er volgens mij gevaarlijk uit te zien, TA. In de S&P 500 dreigt een groot SHS-patroon te ontstaan. linkerschouder: 6765,6 (8 okt.), hoofd:6922,3 (30 okt) , Rechterschouder ? Koers zit nu tegen de top van de linkerschouder. Moet daar wel doorheen. Neklijn op ongeveer 6500. Bij doorbreken daarvan eerste koersdoel ongeveer 6230.
  12. forum rang 10 nine_inch_nerd 25 november 2025 21:04
    Op zich een opmerkelijke dag: GOOGL die AMD en NVDA een leuke dreun geeft.
    Overkant herstelt, behalve AMD (-7%) en NVDA (-4%).
    Bijzonder. Wie had dat voorspeld?
    De ingewikkeldheid v.d. semiconductor-supply chain blijft interessant.
    Komt ook wel weer goed. Gezonde concurrentie is altijd goed.

    En deze, ja:
    quote:

    Sgar schreef op 25 november 2025 08:23:

    De concurrentiestrijd rond AI gaat verder:
    Gemini 3 vs. GPT-5.1 ..... Google lijkt de betere kaarten te hebben.
    www.financialexpress.com/life/technol...
    Softbank verliest fors hierdoor.
    www.bloomberg.com/news/articles/2025-...
    Microsoft werkt aan onafhankelijkheid van OpenAI.
    finance.yahoo.com/news/microsoft-free...

    Kan dit wat betekenen voor de financiën van OpenAI? Betekent dit wat voor StarGate? Of komt OpenAI toch weer boven drijven?
    www.techrepublic.com/article/news-ope...
    Concurrentie OpenAI:
    The OpenAI and Google battle is starting to look messy.
    Het spel schijnt te lopen.
    Kan nog leuk worden.
  13. r66 25 november 2025 22:45
    Voor de SemiConductors is het alleen maar allemaal gunstig. Er zal alleen maar meer druk zijn en komen voor zuiniger en sneller chips. Door nieuw design, en nieuwe semi-conductor technologie.

    Ik ben benieuwd wat er boven komt drijven van de nieuwe initiatieven.
    Wat Nederlands, of Europees zoals Euclid zou leuk zijn :)
    euclyd.ai/adtechnology-collaborates-w...
  14. forum rang 6 Inion 25 november 2025 22:57
    Dacht het de bedoeling was om die AI-modellen ook te laten redeneren? Agentic-AI? Dat kan helemaal niet met ASIC's. Boel gedoe vandaag om niks. De taart wordt alleen maar groter. En idd goed voor chip-makers en chip-equipment makers.
  15. Sgar 26 november 2025 08:23
    Voor degene die er niet helemaal inzit:
    Training : het maken van AI modellen
    Inference : het gebruiken van al gemaakte AI-modellen

    GPU's zijn het beste voor training.
    ASICs zijn beter voor inference.

    80-90% van alle rekenwerk is/wordt inference.

    (Bijkomende vraag is wat de waarde nog is van verouderde GPU's; het idee was die te gebruiken voor inference, maar nu blijken ASICs niet alleen sneller maar ook energiezuiniger te zijn)

    An Inference ASIC is an Application-Specific Integrated Circuit custom-designed and highly optimized for running a trained artificial intelligence (AI) model to make predictions or generate outputs (the "inference" phase). Unlike general-purpose CPUs or GPUs, these chips are engineered for maximum efficiency, speed, and power savings for specific, fixed tasks.
    Key Characteristics
    Specialization: ASICs are built for a narrow set of operations, such as the specific matrix multiplications or tensor operations used in a particular neural network architecture (e.g., Google's TPUs were designed for TensorFlow).
    Efficiency: By eliminating general-purpose components, ASICs achieve superior power efficiency and performance per watt compared to more versatile hardware.
    Performance: They are optimized for low latency (fast response times) and high throughput (processing many requests in parallel), which is crucial for real-time AI applications.
    Fixed Architecture: Once manufactured, their architecture is largely fixed, meaning they are less adaptable to rapidly changing AI models or new types of algorithms compared to GPUs or FPGAs.
    Inference vs. Training
    The AI lifecycle has two main phases, each with different hardware needs:
    Aspect Training (Learning Phase) Inference (Execution Phase)
    Goal Tr: Teach the model patterns from vast datasets. Inf: Use the trained model to make predictions on new data.
    Computation Tr: Computationally intensive, involves backpropagation. Inf: Less demanding per operation (a "forward pass" only) but runs continuously and at scale.
    Hardware Focus Tr: Requires flexible, high-power chips (primarily GPUs). Inf: Prioritizes power efficiency, low latency, and cost-effectiveness (where ASICs excel).
    Major Players and Use Cases
    Major cloud providers and tech companies are developing custom inference ASICs to manage the massive scale and cost of running AI services.
    Google uses its custom Tensor Processing Units (TPUs) for inference in its data centers.
    Amazon Web Services (AWS) developed its Inferentia chips.
    Meta created the Meta Training and Inference Accelerator (MTIA) family of ASICs for internal workloads.
    Apple incorporates a Neural Engine (NPU) in its chips for on-device, power-efficient inference.
    ASICs are best suited for stable, high-volume AI applications such as:
    Image and voice recognition.
    Natural language processing (LLM inference).
    Real-time fraud detection.
    Autonomous driving systems.

    An Inference ASIC is an Application-Specific Integrated Circuit custom-designed and highly optimized for running a trained artificial intelligence (AI) model to make predictions or generate outputs (the "inference" phase). Unlike general-purpose CPUs or GPUs, these chips are engineered for maximum efficiency, speed, and power savings for specific, fixed tasks.
    Key Characteristics
    Specialization: ASICs are built for a narrow set of operations, such as the specific matrix multiplications or tensor operations used in a particular neural network architecture (e.g., Google's TPUs were designed for TensorFlow).
    Efficiency: By eliminating general-purpose components, ASICs achieve superior power efficiency and performance per watt compared to more versatile hardware.
    Performance: They are optimized for low latency (fast response times) and high throughput (processing many requests in parallel), which is crucial for real-time AI applications.
    Fixed Architecture: Once manufactured, their architecture is largely fixed, meaning they are less adaptable to rapidly changing AI models or new types of algorithms compared to GPUs or FPGAs.
    Inference vs. Training
    The AI lifecycle has two main phases, each with different hardware needs:
    Aspect Training (Learning Phase) Inference (Execution Phase)
    Goal Teach the model patterns from vast datasets. Use the trained model to make predictions on new data.
    Computation Computationally intensive, involves backpropagation. Less demanding per operation (a "forward pass" only) but runs continuously and at scale.
    Hardware Focus Requires flexible, high-power chips (primarily GPUs). Prioritizes power efficiency, low latency, and cost-effectiveness (where ASICs excel).
    Major Players and Use Cases
    Major cloud providers and tech companies are developing custom inference ASICs to manage the massive scale and cost of running AI services.
    Google uses its custom Tensor Processing Units (TPUs) for inference in its data centers.
    Amazon Web Services (AWS) developed its Inferentia chips.
    Meta created the Meta Training and Inference Accelerator (MTIA) family of ASICs for internal workloads.
    Apple incorporates a Neural Engine (NPU) in its chips for on-device, power-efficient inference.
    ASICs are best suited for stable, high-volume AI applications such as:
    Image and voice recognition.
    Natural language processing (LLM inference).
    Real-time fraud detection.
    Autonomous driving systems.
  16. Sgar 26 november 2025 08:33
    En hier meer de markt voor inference ASICs

    Let vooral op meer onafhankelijkheid van NVIDIA.

    The AI inference ASIC (Application-Specific Integrated Circuit) market is a rapidly growing segment of the overall AI chip market, driven by the need for cost-effective, high-efficiency processing of large language models (LLMs) and other AI applications.
    Market Size and Projections
    Current and Near-term Value: The overall AI inference market (including GPUs, ASICs, etc.) was estimated at approximately $91.43 billion in 2024, and is projected to grow to around $255 billion by 2030-2032.
    ASIC Share: While GPUs currently dominate the AI chip market, ASICs are projected to take a significant share of the inference market in the coming years due to their power efficiency and performance benefits for specific, stable workloads.
    Some analyses predict the AI ASIC market will reach $125 billion by 2028.
    One forecast suggests ASICs could eventually take over 80% of the inference market, with GPUs primarily focusing on the more flexible training segment.
    Growth Drivers: The market is driven by the explosive demand for real-time generative AI deployment, the expansion of hyperscale data center infrastructure, and the growing need for low-latency processing in edge devices like autonomous vehicles and IoT devices.
    Key Trends
    Shift from GPUs to ASICs for Inference: While GPUs offer flexibility for the constantly evolving AI training algorithms, ASICs are highly optimized for the fixed functionality required for large-scale inference deployment, offering superior performance-per-watt and cost efficiency. This "ASIC-ization" is already underway, mirroring past shifts in areas like cryptocurrency mining.
    Hyperscaler Adoption: Major cloud service providers (CSPs) such as Google (TPUs), Amazon Web Services (Inferentia, Trainium), Microsoft (Maia), and Meta (MTIA) are increasingly developing and deploying their own custom AI ASICs to optimize their data centers and reduce reliance on external vendors like Nvidia.
    Regional Growth: North America currently holds the largest market share, but the Asia Pacific region is expected to exhibit the highest Compound Annual Growth Rate (CAGR) due to increased investments in data centers and semiconductor ecosystems.
    Hardware-Software Co-Design: Companies are developing models that are explicitly designed to be hardware-friendly to maximize efficiency on specialized silicon.
    Major Players
    Nvidia currently leads the overall AI chip market, but companies like Broadcom and Marvell are key players in the custom ASIC design and manufacturing space, partnering with hyperscalers.
    Foundries like TSMC hold a critical, almost monopolistic position in fabricating these advanced chips.
    Other key players in the broader AI inference market include AMD, Intel, and various AI chip startups.
27.705 Posts
Pagina: «« 1 ... 1323 1324 1325 1326 1327 ... 1386 »» | Laatste |Omhoog ↑

Neem deel aan de discussie

Word nu gratis lid van Beleggen.nl

Al abonnee? Log in

Direct naar Forum

Zoek alfabetisch op forum

  1. A
  2. B
  3. C
  4. D
  5. E
  6. F
  7. G
  8. H
  9. I
  10. J
  11. K
  12. L
  13. M
  14. N
  15. O
  16. P
  17. Q
  18. R
  19. S
  20. T
  21. U
  22. V
  23. W
  24. X
  25. Y
  26. Z
Forum # Topics # Posts
Aalberts 467 7.787
AB InBev 3 5.629
Abionyx Pharma 2 29
Ablynx 43 13.357
ABN AMRO 1.583 55.421
ABO-Group 1 29
Acacia Pharma 9 24.692
Accell Group 151 4.132
Accentis 2 268
Accsys Technologies 24 12.608
ACCSYS TECHNOLOGIES PLC 218 11.686
Ackermans & van Haaren 1 205
Adecco 1 1
ADMA Biologics 1 34
Adomos 1 126
AdUX 2 457
Adyen 15 19.462
Aedifica 3 1.038
Aegon 3.259 324.923
AFC Ajax 538 7.132
Affimed NV 2 6.358
ageas 5.845 109.985
Agfa-Gevaert 15 2.171
Ahold 3.543 74.615
Air France - KLM 1.026 36.001
AIRBUS 1 15
Airspray 511 1.258
Akka Technologies 1 18
AkzoNobel 469 13.324
Alfen 18 29.343
Allfunds Group 4 1.772
Almunda Professionals (vh Novisource) 651 4.282
Alpha Pro Tech 1 17
Altice 106 51.198
Alumexx ((Voorheen Phelix (voorheen Inverko)) 8.488 114.842
AM 228 684
Amarin Corporation 1 133
Amerikaanse aandelen 3.862 253.363
AMG 973 141.344
AMS 3 73
Amsterdam Commodities 307 6.920
AMT Holding 199 7.047
Anavex Life Sciences Corp 2 583
Antonov 22.632 153.607
Aperam 93 15.698
Apollo Alternative Assets 1 17
Apple 5 409
Arcadis 254 9.917
Arcelor Mittal 2.044 322.376
Archos 1 1
Arcona Property Fund 1 305
arGEN-X 18 11.890
Aroundtown SA 1 251
Arrowhead Research 5 9.973
Ascencio 1 39
ASIT biotech 2 697
ASMI 4.109 40.901
ASML 1.769 131.396
ASR Nederland 22 4.617
ATAI Life Sciences 1 7
Atenor Group 1 556
Athlon Group 121 176
Atos 4 3.756
Atrium European Real Estate 2 199
Auplata 1 55
Avantium 36 18.026
Axsome Therapeutics 1 177
Azelis Group 2 23
Azelis Group NV 2 184
Azerion 7 3.850