# NVIDIA: From a 1993 Startup to the AI-Computing Platform Company — History and Jensen Huang’s Story # NVIDIA: 1993년 스타트업에서 AI 컴퓨팅 플랫폼 기업까지 — 역사와 젠슨 황 이야기 > Eco-Friendly Solar Energy Tech

Go to Body
All Search in Site

Member Login

Count Vister

Today
23,260
Yesterday
30,600
Maximum
48,407
All
1,348,549

Eco-Friendly Solar Energy Tech


Tech # NVIDIA: From a 1993 Startup to the AI-Computing Platform Company — History and…

Page Info

Writer Joshuaa Hit 451 Hits Date 26-01-04 00:07
Comment 0 Comments

Content

# NVIDIA: From a 1993 Startup to the AI-Computing Platform Company — History and Jensen Huang’s Story

# NVIDIA: 1993년 스타트업에서 AI 컴퓨팅 플랫폼 기업까지 — 역사와 젠슨 황 이야기

---

## English

### 1) NVIDIA in one sentence (why it matters)

NVIDIA is the company that turned the GPU from a “graphics chip” into a general-purpose **accelerated computing platform**, and then used that platform—hardware + networking + software—to become a foundational supplier for modern AI. ([위키백과][1])

---

### 2) Origins (1993–1999): founding, early bets, survival

**Founding**

* NVIDIA was founded on **April 5, 1993** by **Jensen Huang, Chris Malachowsky, and Curtis Priem**, after discussions that included a meeting at a **Denny’s** in San Jose. ([위키백과][1])
* The original vision: use graphics-style parallelism as a new trajectory for computing problems that conventional CPUs struggled with. ([위키백과][1])

**Early product reality**

* The 1990s graphics market was brutal: short product cycles, thin margins, and customers demanding rapid leaps in performance. NVIDIA’s early years were defined by repeated architectural pivots and learning cycles—what later became its core competency: shipping ambitious silicon on a relentless cadence. (This is a synthesis of the company’s early history and market context.) ([위키백과][1])

**The 1999 inflection: “GPU” becomes a category**

* NVIDIA popularized the term **GPU** in 1999 by marketing **GeForce 256** as the “world’s first GPU,” a move widely cited as a category-defining milestone. ([컴퓨터 협회][2])

Why this mattered: branding it a “GPU” was not just marketing—it framed graphics hardware as a **compute engine** with a roadmap, not a commodity add-in card.

---

### 3) Scale-up era (2000–2006): programmable graphics → the seeds of general-purpose compute

In the 2000s, GPUs evolved rapidly (more programmability, more parallel throughput). NVIDIA’s strategic insight was that the same parallel structure that draws pixels could accelerate **science and data**—if developers had the right programming model.

**CUDA: the platform wedge**

* NVIDIA’s corporate timeline places the unveiling of the **CUDA architecture** in **2006**, positioned as opening GPU parallel processing to science and research. ([NVIDIA][3])
* NVIDIA’s own explanation distinguishes CUDA as a platform/API approach (often misunderstood as “a language”) and notes CUDA was launched in 2006. ([NVIDIA Blog][4])
* CUDA’s broader software platform was officially released soon after (commonly referenced as 2007 in technical histories). ([위키백과][5])

**Strategic meaning**: CUDA made NVIDIA’s GPUs “stickier” than rivals because it created a developer ecosystem and an expanding library stack—an early version of today’s “full-stack” moat.

---

### 4) Deep learning ignition (2012): GPUs become AI engines

* NVIDIA’s corporate timeline highlights **2012** as a turning point, describing the AlexNet breakthrough as sparking the era of modern AI by being powered on NVIDIA GPUs. ([NVIDIA][3])
* AlexNet’s 2012 ImageNet success is widely recognized as a watershed for deep learning’s mainstream momentum. ([위키백과][6])

**Why this changed NVIDIA’s trajectory**
Deep learning workloads map exceptionally well to massively parallel compute. Once industry accepted “AI = matrix math at scale,” the GPU stopped being a niche accelerator and became the default workhorse.

---

### 5) “Full-stack acceleration” (2016–2022): systems, networking, and platform control

NVIDIA increasingly sold not only chips, but **systems** and **infrastructure primitives**.

**Networking becomes strategic: Mellanox**

* NVIDIA announced the Mellanox deal in 2019 and completed it on **April 27, 2020**. ([NVIDIA Newsroom][7])
  This matters because large AI training is not just compute; it’s **compute + interconnect**. Mellanox’s InfiniBand/Ethernet portfolio strengthened NVIDIA’s ability to build tightly integrated “AI factory” clusters.

**The Arm deal that didn’t happen**

* NVIDIA and SoftBank announced termination of NVIDIA’s Arm acquisition on **February 7, 2022**, citing regulatory challenges. ([NVIDIA Newsroom][8])
  Even though it ended, the attempt signaled NVIDIA’s ambition: control more of the computing stack from CPU to GPU to networking to software.

---

### 6) The AI factory era (2024–2026+): Blackwell, roadmaps, and robotics

**Blackwell platform (2024)**

* NVIDIA announced the **Blackwell** platform on **March 18, 2024**, including the **GB200 Grace Blackwell Superchip** combining **two B200 Tensor Core GPUs** with a Grace CPU via high-bandwidth NVLink. ([NVIDIA Newsroom][9])

**Roadmap disclosures (GTC 2025 and beyond)**

* Reporting from 2025 GTC describes NVIDIA’s next wave: **Blackwell Ultra** (late 2025), **Vera Rubin** (2026), **Rubin Ultra** (2027), and **Feynman** (2028). ([Reuters][10])
  This is significant because NVIDIA has turned product cadence into a **planning instrument for the entire AI industry**—cloud providers and model labs align capacity planning to NVIDIA’s roadmap.

**Robotics push**

* The same reporting highlights **Isaac GR00T N1** (robotics foundation model / framework) and an open-source physics engine called **Newton** developed with partners, indicating NVIDIA’s intent to become a core platform for embodied AI, not just data centers. ([Reuters][10])

---

### 7) Jensen Huang: the person behind the strategy

**Early life and education**

* Jensen Huang (Jen-Hsun Huang) was born in **Taipei, Taiwan (Feb 17, 1963)**, spent part of his childhood in **Taiwan and Thailand**, and later moved to the United States. ([위키백과][11])
* He studied electrical engineering at **Oregon State University** and earned a master’s degree from **Stanford**. ([위키백과][11])

**Career before NVIDIA**

* Accounts describe him working at **AMD** and **LSI Logic** prior to NVIDIA, building expertise in microprocessors and silicon production realities. ([위키백과][1])

**Founding NVIDIA and CEO continuity**

* He co-founded NVIDIA in 1993 (Denny’s origin story) and has remained CEO since. ([위키백과][1])

**Leadership signature (what repeatedly shows up in profiles)**

* Recent business profiles emphasize his intense operational cadence and hands-on style (including unusual management span and a distinctive personal brand). ([Business Insider][12])
  Interpretation (grounded in observed company outcomes): Huang’s edge has been **strategic patience + tactical urgency**—placing decade-scale bets (CUDA, AI training stacks, networking) while running execution at a weekly tempo.

---

### 8) NVIDIA’s durable moat (the “why them, not just any chip maker” answer)

1. **Platform software lock-in (CUDA + libraries)**
  CUDA created a developer ecosystem; libraries and tooling compound that advantage over time. ([NVIDIA][3])

2. **System-level integration (chips → servers → clusters)**
  Blackwell-era messaging is explicitly system-first (superchips, NVLink, networking). ([NVIDIA Newsroom][9])

3. **Networking and scale**
  Mellanox strengthens end-to-end performance for distributed training and inference. ([NVIDIA Newsroom][13])

4. **Roadmap credibility**
  Public roadmap communication (Blackwell Ultra → Rubin → Feynman) reduces uncertainty for buyers and channels demand into NVIDIA’s cadence. ([Reuters][10])

---

### 9) Practical applications and “how to think with NVIDIA” (developer + business)

**For developers building AI products**

* Treat NVIDIA as a **stack**: training/inference performance often depends on kernels, memory layout, interconnect, and library choice—not only model architecture. CUDA’s existence and its expansion into libraries is the reason optimization effort compounds. ([NVIDIA Blog][4])

**For startups / product teams**

* Choose strategy by bottleneck:

  * If bottleneck is **time-to-market**: rent GPU capacity and prioritize inference efficiency.
  * If bottleneck is **latency at scale**: architecture choices must account for networking and batching; NVIDIA’s system approach (superchips + networking) reflects that reality. ([NVIDIA Newsroom][9])

**For long-horizon planning**

* Use NVIDIA’s published roadmap windows (Blackwell Ultra / Rubin / Feynman) as an external clock for capacity and product rollouts, because hyperscalers and OEMs increasingly do so. ([Reuters][10])

---

## 한국어

### 1) NVIDIA를 한 문장으로 요약하면

NVIDIA는 GPU를 “그래픽 칩”에서 “가속 컴퓨팅 플랫폼(칩+네트워킹+소프트웨어)”으로 바꿔 놓았고, 그 플랫폼을 기반으로 현대 AI 인프라의 핵심 공급자가 된 기업입니다. ([위키백과][1])

---

### 2) 시작(1993–1999): 창업, 생존, 그리고 “GPU”의 탄생

**창업**

* NVIDIA는 **1993년 4월 5일**, **젠슨 황·크리스 말라초스키·커티스 프리엄**이 설립했으며, 창업 구상 과정에 **새너제이 데니스(Denny’s)**에서의 미팅이 유명하게 언급됩니다. ([위키백과][1])

**1990년대의 본질: ‘초고속 학습’ 산업에서 살아남기**

* 당시 그래픽 칩 시장은 제품 주기가 극단적으로 짧고 경쟁이 과열되어 “한 번 삐끗하면 끝”에 가까웠습니다. NVIDIA는 초기부터 반복적인 설계 전환과 출시 리듬을 통해 ‘빠른 실전 학습’을 조직 능력으로 만들었습니다(초기 역사와 시장 맥락을 근거로 한 종합). ([위키백과][1])

**1999년 전환점: GeForce 256과 “GPU”라는 프레임**

* NVIDIA는 **1999년 GeForce 256**을 “세계 최초 GPU”로 마케팅하며 GPU라는 용어를 대중화했고, 이는 기술사에서 범주를 바꾼 사건으로 자주 인용됩니다. ([컴퓨터 협회][2])

핵심은 “그래픽 카드”가 아니라 “GPU 로드맵을 가진 컴퓨팅 엔진”으로 인식 틀을 바꾼 점입니다.

---

### 3) 2000년대(2000–2006): 프로그래머블 그래픽 → 범용 병렬컴퓨팅의 씨앗

GPU가 점점 프로그래머블해지자 NVIDIA는 “픽셀을 그리는 병렬 구조”를 “과학·데이터 계산”에도 쓰려면 개발자에게 **표준화된 프로그래밍 모델**이 필요하다고 봤습니다.

**CUDA: 플랫폼의 쐐기**

* NVIDIA의 기업 연대표는 **2006년 CUDA 아키텍처 공개**를 과학·연구 영역으로 GPU 병렬 처리를 여는 사건으로 정리합니다. ([NVIDIA][3])
* NVIDIA 블로그는 CUDA를 “언어”로 오해하는 경우를 짚으며 **CUDA가 2006년에 출범**했다고 설명합니다. ([NVIDIA Blog][4])
* 기술사에서는 CUDA의 공식 릴리스를 2007년으로도 많이 인용합니다. ([위키백과][5])

의미: CUDA는 단순 기능이 아니라 “개발자 생태계 + 라이브러리 축적”을 만들어 **경쟁사를 단순 하드웨어 비교로 따라오기 어렵게** 만들었습니다.

---

### 4) 2012년: 딥러닝 점화(알렉스넷)와 NVIDIA의 궤도 변경

* NVIDIA 연대표는 **2012년 AlexNet 돌파구**를 “현대 AI 시대를 촉발”한 사건으로 서술하며 GPU가 그 돌파를 뒷받침했다고 강조합니다. ([NVIDIA][3])
* AlexNet은 2012 ImageNet에서의 성과로 딥러닝 대중화를 이끈 대표 사례로 정리됩니다. ([위키백과][6])

이후 “AI=대규모 행렬연산”이라는 산업적 합의가 커지면서 GPU는 주변 가속기가 아니라 AI 컴퓨팅의 중심이 됩니다.

---

### 5) 2016–2022: ‘칩 회사’에서 ‘시스템/인프라 회사’로

NVIDIA는 칩뿐 아니라 서버/클러스터까지 포함한 **시스템 레벨**에서 가치를 회수하기 시작합니다.

**Mellanox 인수(네트워킹의 전략화)**

* Mellanox 인수는 2019년 발표 후 **2020년 4월 27일 완료**되었습니다. ([NVIDIA Newsroom][7])
  대규모 AI 학습은 연산만이 아니라 **GPU 간 연결(인터커넥트)**이 병목이 되기 때문에, 네트워크를 포섭한 것은 “AI 공장” 설계 능력을 강화한 선택입니다.

**ARM 인수 무산**

* NVIDIA와 SoftBank는 **2022년 2월 7일 ARM 인수 종료**를 발표했으며, 규제 장벽을 이유로 들었습니다. ([NVIDIA Newsroom][8])
  무산 자체보다 중요한 신호는 NVIDIA의 야망입니다: CPU–GPU–네트워크–소프트웨어까지 더 넓은 스택을 장악하려는 방향성입니다.

---

### 6) 2024–2026+: Blackwell, 로드맵, 로보틱스

**Blackwell(2024)**

* NVIDIA는 **2024년 3월 18일 Blackwell 플랫폼**과 **GB200 Grace Blackwell Superchip**을 발표했고, 두 개의 B200 GPU와 Grace CPU를 NVLink로 고대역 연결하는 구성을 설명합니다. ([NVIDIA Newsroom][9])

**GTC 2025 이후 로드맵**

* 2025 GTC 보도에 따르면 NVIDIA는 **Blackwell Ultra(2025년 말)**, **Vera Rubin(2026)**, **Rubin Ultra(2027)**, **Feynman(2028)** 로드맵을 제시했습니다. ([Reuters][10])
  이 로드맵은 단순 제품 발표가 아니라, 하이퍼스케일러와 AI 연구소의 투자/증설 타이밍을 사실상 동기화시키는 “산업 시계” 역할을 합니다.

**로보틱스(‘몸을 가진 AI’) 확장**

* 같은 보도에서 NVIDIA는 **Isaac GR00T N1**(휴머노이드 포함 로보틱스용 파운데이션 모델/프레임워크)과 물리 엔진 **Newton**을 언급하며, 데이터센터 밖 “현실 세계 AI”로 확장하려는 의지를 드러냅니다. ([Reuters][10])

---

### 7) 젠슨 황 이야기: 배경, 창업, 리더십의 특징

**성장 배경과 학력**

* 젠슨 황(젠슨/젠-순 황)은 **1963년 2월 17일 타이베이 출생**, 유년기를 **대만과 태국**에서 보낸 뒤 미국으로 이주한 것으로 정리됩니다. ([위키백과][11])
* **오리건 주립대 전기공학**과 **스탠퍼드 석사** 이력이 널리 확인됩니다. ([위키백과][11])

**창업 이전 커리어**

* 창업 전 **AMD, LSI Logic** 등에서 반도체/마이크로프로세서 실무를 경험했다는 서술이 반복됩니다. ([위키백과][1])

**창업과 CEO 지속성**

* 1993년 공동창업 이후 현재까지 CEO로 회사를 이끌어왔습니다. ([위키백과][1])

**리더십 스타일(프로필에서 반복되는 요소)**

* 최근 프로필은 고강도 실행, 직접 관여, 독특한 개인 브랜딩 등을 강조합니다. ([Business Insider][12])
  해석(관측되는 결과를 바탕으로 한 정리): 젠슨 황의 강점은 “10년 단위 베팅(CUDA·AI·네트워크) + 주 단위 실행 속도”의 결합입니다.

---

### 8) NVIDIA의 해자(왜 ‘칩’만으로 설명이 끝나지 않는가)

1. **CUDA와 라이브러리 축적**: 시간이 지날수록 개발자·툴·코드 자산이 누적되어 플랫폼 우위가 복리처럼 커집니다. ([NVIDIA][3])
2. **시스템 통합**: Blackwell은 “슈퍼칩/상호연결/네트워킹”까지 묶어 성능을 파는 방향을 분명히 합니다. ([NVIDIA Newsroom][9])
3. **네트워크(스케일) 장악**: Mellanox는 분산 학습/추론의 병목을 줄이는 핵심 축입니다. ([NVIDIA Newsroom][13])
4. **로드맵 신뢰성**: Blackwell Ultra→Rubin→Feynman의 ‘예고된 리듬’은 고객의 투자 결정을 NVIDIA 리듬에 맞춥니다. ([Reuters][10])

---

### 9) 응용·팁(개발/사업 관점에서 바로 쓰는 방식)

* **개발 관점**: 모델 구조만으로 성능이 결정되지 않습니다. 커널/메모리/배치/인터커넥트/라이브러리 선택이 병목을 좌우하며, CUDA 플랫폼의 존재는 최적화 투자가 누적되게 만듭니다. ([NVIDIA Blog][4])
* **제품 팀 관점**: 병목이 “출시 속도”면 GPU 임대와 추론 최적화가 우선이고, 병목이 “대규모 저지연”이면 네트워크/클러스터 설계가 본질입니다. Blackwell과 네트워킹 발표는 그 현실을 반영합니다. ([NVIDIA Newsroom][9])
* **장기 계획**: NVIDIA 로드맵(Blackwell Ultra/Rubin/Feynman)을 외부 기준 시계로 삼아 인프라·제품 일정의 리스크를 낮춥니다. ([Reuters][10])

---

## 日本語

### 1) NVIDIAの要点

NVIDIAはGPUを「描画チップ」から「加速コンピューティングのプラットフォーム(ハード+ネットワーク+ソフト)」へ進化させ、AIインフラの中核供給者になった企業です。 ([위키백과][1])

### 2) 歴史の骨格(重要節目)

* **1993年創業**:Jensen Huang、Chris Malachowsky、Curtis Priemが設立。Denny’sでの打ち合わせが有名。 ([위키백과][1])
* **1999年**:GeForce 256を「GPU」として提示し、GPU概念を定着させたと広く引用。 ([컴퓨터 협회][2])
* **2006年**:CUDAアーキテクチャを公開し、GPU並列計算を研究・科学へ拡張。 ([NVIDIA][3])
* **2012年**:AlexNetのブレイクスルーが近代AIを加速(GPU活用の転換点として整理)。 ([NVIDIA][3])
* **2020年**:Mellanox買収を完了(計算だけでなく相互接続も支配)。 ([NVIDIA Newsroom][13])
* **2022年**:Arm買収は規制要因で終了。 ([NVIDIA Newsroom][8])
* **2024年**:Blackwell(GB200)発表。 ([NVIDIA Newsroom][9])
* **2025年以降ロードマップ**:Blackwell Ultra→Vera Rubin→Rubin Ultra→Feynman。 ([Reuters][10])

### 3) Jensen Huang(人物像)

台北生まれ(1963年)、台湾・タイを経て米国へ。Oregon State大でEE、Stanfordで修士。AMDやLSI Logicの経験を経て1993年にNVIDIAを創業し、CEOを継続。 ([위키백과][11])

### 4) 競争優位(なぜ強いか)

CUDAを核にライブラリが蓄積し、さらにBlackwellのように「システム+ネットワーク」へ統合して性能を提供する点が本質です。 ([NVIDIA Blog][4])

---

## Español

### 1) Qué es NVIDIA hoy (la idea central)

NVIDIA convirtió la GPU en una **plataforma de computación acelerada** (hardware + interconexión + software) y por eso se volvió un proveedor estructural de la era de la IA. ([위키백과][1])

### 2) Hitos históricos esenciales

* **1993**: fundación por Jensen Huang, Chris Malachowsky y Curtis Priem (historia del Denny’s). ([위키백과][1])
* **1999**: GeForce 256 populariza “GPU” como categoría. ([컴퓨터 협회][2])
* **2006/2007**: CUDA se posiciona como la cuña de plataforma para cómputo paralelo en GPU. ([NVIDIA][3])
* **2012**: AlexNet y el salto de la IA moderna (punto de inflexión asociado a GPU). ([NVIDIA][3])
* **2020**: compra de Mellanox finalizada; la red pasa a ser parte del “motor” de IA. ([NVIDIA Newsroom][13])
* **2022**: termina la adquisición de Arm por barreras regulatorias. ([NVIDIA Newsroom][8])
* **2024**: Blackwell (GB200) anunciado. ([NVIDIA Newsroom][9])
* **2025+**: hoja de ruta pública (Blackwell Ultra, Vera Rubin, Rubin Ultra, Feynman). ([Reuters][10])

### 3) Jensen Huang

Nacido en Taipéi (1963), vivió en Taiwán y Tailandia y luego se mudó a EE. UU.; estudió en Oregon State y Stanford; trabajó en AMD y LSI Logic; cofundó NVIDIA en 1993 y continúa como CEO. ([위키백과][11])

### 4) Por qué su ventaja es duradera

No es solo “chips”: CUDA y su ecosistema, más la integración de sistemas y redes (Mellanox), y un ritmo de roadmap que ordena al mercado. ([NVIDIA Blog][4])

---

## Français

### 1) L’idée centrale

NVIDIA a transformé le GPU en **plateforme de calcul accéléré** (puces + interconnexion + logiciel), ce qui l’a placé au cœur de l’infrastructure moderne de l’IA. ([위키백과][1])

### 2) Jalons majeurs

* **1993** : création par Jensen Huang, Chris Malachowsky et Curtis Priem (récit du Denny’s). ([위키백과][1])
* **1999** : GeForce 256 popularise “GPU” comme catégorie. ([컴퓨터 협회][2])
* **2006/2007** : CUDA devient la clé de voûte logicielle du calcul parallèle sur GPU. ([NVIDIA][3])
* **2012** : AlexNet symbolise l’accélération de l’IA moderne (GPU comme levier). ([NVIDIA][3])
* **2020** : acquisition de Mellanox finalisée, renforçant l’axe “réseau + calcul” pour les clusters IA. ([NVIDIA Newsroom][13])
* **2022** : abandon du rachat d’Arm pour raisons réglementaires. ([NVIDIA Newsroom][8])
* **2024** : annonce de Blackwell (GB200). ([NVIDIA Newsroom][9])
* **2025+** : feuille de route annoncée (Blackwell Ultra, Vera Rubin, Rubin Ultra, Feynman). ([Reuters][10])

### 3) Jensen Huang (parcours)

Né à Taipei (1963), enfance partagée entre Taïwan et Thaïlande, puis installation aux États-Unis ; Oregon State (EE) et master à Stanford ; expériences chez AMD et LSI Logic ; cofonde NVIDIA en 1993 et reste CEO. ([위키백과][11])

### 4) Pourquoi l’avantage tient dans le temps

CUDA + bibliothèques créent un effet cumulatif, tandis que l’intégration système (superchips, interconnexions) et réseau (Mellanox) permet de vendre la performance “cluster”, pas seulement la puce. ([NVIDIA Blog][4])

[1]: https://en.wikipedia.org/wiki/Nvidia?utm_source=chatgpt.com "Nvidia"
[2]: https://www.computer.org/publications/tech-news/chasing-pixels/nvidias-geforce-256?utm_source=chatgpt.com "Famous Graphics Chips: Nvidia's GeForce 256"
[3]: https://www.nvidia.com/en-us/about-nvidia/corporate-timeline/?utm_source=chatgpt.com "Our History: Innovations Over the Years"
[4]: https://blogs.nvidia.com/blog/what-is-cuda-2/?utm_source=chatgpt.com "What Is CUDA | NVIDIA Official Blog"
[5]: https://en.wikipedia.org/wiki/CUDA?utm_source=chatgpt.com "CUDA"
[6]: https://en.wikipedia.org/wiki/AlexNet?utm_source=chatgpt.com "AlexNet"
[7]: https://nvidianews.nvidia.com/news/nvidia-to-acquire-mellanox-for-6-9-billion?utm_source=chatgpt.com "NVIDIA to Acquire Mellanox for $6.9 Billion"
[8]: https://nvidianews.nvidia.com/news/nvidia-and-softbank-group-announce-termination-of-nvidias-acquisition-of-arm-limited?utm_source=chatgpt.com "NVIDIA and SoftBank Group Announce Termination of ..."
[9]: https://nvidianews.nvidia.com/news/nvidia-blackwell-platform-arrives-to-power-a-new-era-of-computing?utm_source=chatgpt.com "NVIDIA Blackwell Platform Arrives to Power a New Era of ..."
[10]: https://www.reuters.com/technology/everything-nvidia-announced-its-annual-developer-conference-gtc-2025-03-18/?utm_source=chatgpt.com "Everything Nvidia announced at its annual developer conference GTC"
[11]: https://en.wikipedia.org/wiki/Jensen_Huang?utm_source=chatgpt.com "Jensen Huang"
[12]: https://www.businessinsider.com/jensen-huang?utm_source=chatgpt.com "Meet Jensen Huang, Nvidia's founder and CEO"
[13]: https://nvidianews.nvidia.com/news/nvidia-completes-acquisition-of-mellanox-creating-major-force-driving-next-gen-data-centers?utm_source=chatgpt.com "NVIDIA Completes Acquisition of Mellanox, Creating Major ..."

List of comments

No comments

Copyright © SaSaSak.net All rights reserved.