NVIDIA의 200억 달러 그림자 인수

NVIDIA는 자사의 가장 큰 경쟁자에게 200억 달러를 쏟아부었지만, 전통적인 인수는 아니었습니다. AI 속도의 미래를 재정의하는 이 거래의 뒷 이야기를 소개합니다. 왜 젠슨 황은 다른 사람들이 체커를 두는 동안 체스를 두고 있는지에 대한 설명입니다.

Stork.AI
Hero image for: NVIDIA의 200억 달러 그림자 인수
💡

TL;DR / Key Takeaways

NVIDIA는 자사의 가장 큰 경쟁자에게 200억 달러를 쏟아부었지만, 전통적인 인수는 아니었습니다. AI 속도의 미래를 재정의하는 이 거래의 뒷 이야기를 소개합니다. 왜 젠슨 황은 다른 사람들이 체커를 두는 동안 체스를 두고 있는지에 대한 설명입니다.

전 세계가 들은 200억 달러의 속삭임

200억 달러 규모의 NVIDIA 거래 소식이 거래 데스크에 매트릭스의 글리치처럼 퍼졌다. Arm 스타일의 헤드라인 인수도, 깔끔한 인수도 아니지만, 너무나 큰 숫자여서 즉시 회사 역사상 가장 큰 거래로 자리 잡았다. 어떤 GPU 출시보다도 크고, 어떤 데이터 센터 설계 승리보다도 큰, 이건 재무제표를 무기로 삼는 영역이었다.

규모를 고려할 때, NVIDIA가 2019년에 Mellanox를 인수하는 데 소요된 비용은 69억 달러였으며, 이는 전체 고성능 네트워킹 시장을 재편성했습니다. 이번 거래는 이 숫자를 사실상 세 배로 증가시키며, 대역폭이나 상호 연결이 아니라 AI 추론의 핵심에 목표를 두고 있습니다. 이미 1조 달러가 넘는 가치를 지닌 회사가 속도, 지연, 그리고 반도체 전문성을 위해 200억 달러가 적정한 가격이라고 결정할 때, 모든 이의 주목을 받게 됩니다.

혼란이 먼저 찾아왔다. NVIDIA는 Groq를 완전히 인수하지 않는다고 밝혔지만, 중형 반도체 제조업체의 전체 시장 가치에 해당하는 금액이 움직이고 있었다. 투자자들은 이 거래를 익숙한 패턴에 맞추어 보려 했지만—인수합병, 전략적 파트너십, 라이선스 등의 형태—어떠한 것도 완벽히 맞아떨어지지 않았다. 헤드라인은 이를 인수라고 불렀지만, NVIDIA의 변호사들은 매우 조심스럽게 그렇게 표현하지 않았다.

구조는 거의 의도적으로 이상하게 보였다. NVIDIA는 Groq의 핵심 IP에 대한 비독점 권리를 위해 약 200억 달러를 지불하기로 합의했으며, 설립자인 조너선 로스와 사장인 쏘니 마드라를 포함한 최고의 엔지니어링 인재를 효과적으로 "채용"하는 셈이다. Groq는 새로운 리더십 하에서 계속 존재할 것이며, Groq의 LPU 아키텍처와 대부분의 칩 자산은 NVIDIA의 궤도로 이동할 것이다.

그 불균형은 초기에 신비감을 불러일으켰습니다. 왜 완전한 소유권을 확보하거나 명확한 합병을 촉발하지 않고 인수 수준의 돈을 지출했을까요? 왜 거래에서 GroqCloud와 일부 사업을 제외하고 두뇌와 청사진만 흡수했을까요? 외부의 많은 이들에게는 NVIDIA가 반쪽짜리 회사에 프리미엄 가격을 지불한 것처럼 보였습니다.

떠들썩한 소음 아래에서 다른 이야기가 나타나기 시작했다: 전략적인 토지 확보를 감싼 규제의 유도 동작. NVIDIA는 깔끔한 인수합병을 피함으로써 400억 달러 규모의 Arm 인수 시도에서 실패하게 만든 반독점 조사를 회피했다. 동시에, AI의 다음 단계에서 두려운 속도와 규모로 우세를 점하기 위해 필요한 인력, 지식재산권, 로드맵을 조용히 확보했다.

젠슨의 갬빗: '비인수' 인수

일러스트: 젠슨의 갬빗: '비인수' 인수
일러스트: 젠슨의 갬빗: '비인수' 인수

젠슨 황은 그로크를 사기보다는 재구성했다. NVIDIA는 그로크의 핵심 IP에 대한 포괄적이고 비독점적인 라이센스와 구식 실리콘 밸리의 인재 확보 패키지를 결합하는 데 약 200억 달러를 지출하고 있다. 명목상으로 그로크는 살아남지만, 실제로 그로크의 가장 귀중한 자산은 이제 NVIDIA의 중력 우주를 도는 형국이다.

그로크의 자본 테이블과 기업 쉘을 인수하는 대신, NVIDIA는 그로크의 LPU 아키텍처, 컴파일러 스택 및 주요 디자인 특허를 라이선스했습니다. 이 지적 재산은 NVIDIA가 그로크의 추론 실리콘 개념을 미래 제품군에 통합하는 데 필요한 모든 것을 제공하는 장기 접근 권한을 포함하고 있습니다. 비독점적인 언어 덕분에 그로크는 기술적으로 다른 곳에 라이선스를 부여할 수 있지만, 발명자들이 떠난 지금 그 선택지는 현실보다 이론적인 것처럼 보입니다.

이 구조는 ARM 거래를 실패하게 만든 법적 위험을 일으키지 않으면서 NVIDIA에게 Groq의 기술적 보석을 넘겨줍니다. 미국, EU, 영국의 규제 당국은 이미 NVIDIA의 AI 컴퓨트 분야 지배에 대해 깊은 우려를 표시했습니다. 급성장하는 추론 경쟁자의 직접 인수는 다년간의 조사가 필요하거나 행동 수정, 또는 전면 차단을 초래했을 것입니다.

반대로, IP 라이선싱과 인재 이동은 일반적으로 반독점 감시의 눈을 피하는 "일상적인 거래"로 간주됩니다. 지배권 변경 신고도, 주주 투표도, 소송을 위한 합병도 없습니다. NVIDIA는 경쟁자를 시장에서 제거하지 않았다고 그럴듯하게 주장할 수 있습니다; Groq는 여전히 존재하며, 여전히 GroqCloud를 운영하고 있고, 이론적으로는 여전히 칩을 제조할 수 있습니다.

거래의 인간적인 측면은 그 주장을 학문적으로 느끼게 합니다. 구글의 TPU와 Groq의 LPU를 설계한 엔지니어인 Groq 창립자 조나단 로스가 NVIDIA로 이동하고 있습니다. 선니 마드라 사장과 Groq의 아키텍처, 컴파일러, 시스템 팀의 핵심 인력도 그와 함께 합류할 것으로 보입니다. Groq에 남아있는 것은 전체 스택 실리콘 회사라기보다 브랜드와 클라우드 서비스에 더 가깝게 보입니다.

전략적으로 황은 규제 당국이 두려워했던 것을 정확히 얻습니다: 전통적인 합병의 문서적 흔적 없이 AI 추론 스택에 대한 더 엄격한 통제. NVIDIA는 Groq의 설계와 이를 더욱 발전시킬 수 있는 인력을 바탕으로 GPU 훈련에서 초저지연 추론으로 발을 넓힙니다.

구글과 그록의 AI 두뇌를 만든 천재를 만나다

Jonathan Ross는 간단하고도 잔혹한 제약인 "지연이 AI를 죽인다"는 원칙을 바탕으로 경력을 쌓았습니다. 구글에서 그는 이 원칙을 실리콘으로 바꾸어, Google Search, Translate, Photos, 및 YouTube 추천의 기반이 된 맞춤형 가속기인 텐서 프로세싱 유닛(TPU)을 만드는 팀을 이끌었습니다. 현재 TPU 배치는 수백만 개의 칩에 달하며, 구글 데이터 센터 내에서 하루에 수조 건의 추론을 처리하고 있습니다.

로스는 단순히 빠른 칩을 설계한 것이 아니라, 행렬 수학을 중심으로 전체 스택을 다시 디자인했습니다. TPU는 CPU와 GPU에서 밀집 선형 대수를 오프로드하여 구글이 일반 하드웨어에서는 경제적으로 불가능했던 규모로 모델을 훈련하고 제공할 수 있게 했습니다. 이 성공은 그가 단일 아키텍처 결정으로 하이퍼스케일러 경제를 변화시킬 수 있음을 입증한 몇 안 되는 엔지니어 중 한 명으로 자리매김하게 했습니다.

그 후 그는 떠났다. 로스는 Groq를 설립하며 더 명확한 주제를 가지고 있었다: 그래픽을 위한 것이 아니라, 일반적인 AI를 위한 것도 아닌, 언어와 추론의 원초적인 속도를 위해 프로세서를 만들겠다는 것이다. 복잡하고 대규모 병렬 GPU 모델 대신, Groq의 언어 처리 장치(LPU)는 결정론적이고 단일 코어, 극도로 넓은 아키텍처를 사용하여 신경망을 컨베이어 벨트처럼 실행한다. 캐시가 없고, 최소한의 분기를 가지며, 정밀한 스케줄링을 특징으로 한다.

Groq의 하드웨어와 컴파일러 스택은 하나의 지표, 즉 초당 토큰 수(token per second)를 추구했습니다. 공개 데모에서는 Groq LPU가 사용자당 초당 수백 개의 토큰을 출력하는 대형 언어 모델을 스트리밍하는 모습을 보여주었으며, 이는 유사한 전력 범위를 가진 GPU 기반 설정보다 종종 2~3배 더 빠릅니다. 지연에 민감한 작업—거래, 대화형 에이전트, 실시간 보조 도구—에서는 이러한 차이가 직접적으로 수익과 사용자 유지로 이어집니다.

그래서 로스가 NVIDIA의 200억 달러 베팅의 중심에 있는 것입니다. 젠슨 황은 단순히 IP를 라이센스하는 것이 아니라, 구글을 TPU 중심 회사로 변화시킨 사고를 가져오고, 그로부터 처음부터 경쟁 추론 엔진을 구축한 것입니다. 단독: NVIDIA가 200억 달러에 AI 칩 스타트업 Groq의 자산을 인수, 역사상 최대 거래는 이것이 NVIDIA의 사상 최대 거래임을 강조하며, 69억 달러 규모의 멜라녹스 인수를 능가했습니다.

NVIDIA는 이미 GPU를 이용한 학습에서 지배적인 위치를 차지하고 있습니다. Ross는 GPU 생태계를 LPU 스타일의 결정론과 컴파일러 규율과 결합함으로써 추론에서도 지배적인 위치를 차지할 수 있는 신뢰할 수 있는 경로를 제공합니다. 200억 달러를 라이선스와 인수합병에 쓴다면, 당신이 고용하고 있는 설계자가 다음 10년의 실리콘을 정의할 수 있다고 믿기 때문입니다.

GPU의 시대가 끝났다: LPU가 등장하다

GPU는 픽셀을 그리기 위해 태어났습니다. 그래픽 처리 장치는 수천 개의 병렬 수학 문제를 화면에 던지는 데 뛰어나며, 3D 게임에 최적화되어 있고, 이후에는 방대한 AI 학습 작업을 처리하는 데도 적합합니다. 이들은 레이 트레이싱, 행렬 곱셈, 물리학 등 모든 것을 부끄러울 정도로 병렬적인 작업으로 다룹니다.

LPU는 그 논리를 뒤집습니다. Groq의 언어 처리 장치는 범용 숫자 혼합기가 아니라, 추론 시간에 대규모 언어 모델을 실행하기 위한 하드와이어링된 빠른 경로입니다. GPU가 복잡한 스케줄링으로 여러 작업을 동시에 처리하는 반면, LPU는 물리학이 허용하는 한 최대한 빠르고 일관되게 단일하고 매우 예측 가능한 프로그램을 실행합니다.

GPU를 광대한 대학 도서관으로 생각해보세요. 모델 훈련은 심층 연구와 유사합니다: 수백만 페이지를 스캔하고, 자료를 교차 참조하며, 가설을 수정하고, 수천 개의 GPU에 걸쳐 몇 주 동안 반복합니다. 유연성이 원초적인 결정론보다 더 중요합니다. 왜냐하면 각 훈련이 "강의 계획서"를 변경하기 때문입니다.

LPU는 완성된 라이브러리를 향한 하이퍼 최적화 검색 엔진처럼 작동합니다. 모델은 이미 훈련되어 있으며, 추론은 질문을 하고 결과 토큰을 스트리밍하는 행위입니다. 당신이 신경 써야 할 것은 대기 시간, 처리량, 쿼리당 비용이지 매일 밤 선반을 재정렬하는 것이 아닙니다.

언어 모델은 이 분할을 더욱 뚜렷하게 만듭니다. 트랜스포머는 텍스트를 토큰 단위로 순차적으로 생성합니다: 토큰 N+1은 토큰 1에서 N까지에 의존합니다. 그 의존성 사슬은 병렬 처리에 적대적으로 보일 수 있지만, 믿을 수 없을 만큼 예측 가능합니다—수십억 개의 요청에 대해 동일한 그래프, 동일한 메모리 패턴, 동일한 제어 흐름을 가집니다.

Groq의 아키텍처는 이러한 예측 가능성에 초점을 맞추고 있습니다. GPU와 같은 대규모 스레드 풀로 메모리 지연을 숨기는 대신, LPU는 전체 모델을 칩 위에 정적 데이터 흐름으로 배치하여 각 토큰 단계를 시간 기반 파이프라인 단계로 변환합니다. 캐시 도박도, 왜곡도 없으며, 단순히 행렬 곱셈과 소프트맥스의 컨베이어 벨트입니다.

NVIDIA는 재무제표에서 중요한 내용을 읽어내고 있습니다. 훈련은 첫 번째 조단위 파도를 만들어냈지만, 추론은 모든 검색창, 고객 서비스 채팅, 생산성 앱이 모델을 초당 수백만 번 호출하면서 이를 능가할 것입니다. 수익은 쿼리 수에 따라 증가하며, GPT-Next를 얼마나 많이 훈련시키는지가 아닙니다.

그래서 GPU의 왕이 GPU의 우위를 위협하는 것에 투자했습니다. 200억 달러 정도를 들여 Groq의 LPU IP에 대한 비독점 권리를 확보하고 조나단 로스와 그의 팀을 영입함으로써 NVIDIA는 하이퍼스케일러들이 전문화된 추론 실리콘을 표준화하는 미래에 대비하고 있습니다. 어제의 반칩에 대한 쇠퇴하는 독점권을 방어하기보다는 승리하는 아키텍처를 소유하는 것이 더 낫습니다.

훈련을 잊어라—추론이 1조 달러의 보상이다

일러스트: 훈련은 잊어라—추론이 조 단위의 상금이다
일러스트: 훈련은 잊어라—추론이 조 단위의 상금이다

AI에게 질문을 하고 수백 밀리초 내에 답변을 받는 것, 그것이 바로 추론입니다. 훈련은 모델이 학습하는 비싼 부트캠프이며, 추론은 그 모델이 코드를 작성하거나 회의를 요약하거나 영상을 생성하거나 자동차를 운전하는 등 일을 할 때마다 발생합니다. 그것은 AI의 "실행" 단계이며, 모델이 출시된 후에는 결코 멈추지 않습니다.

최전선 모델은 슈퍼컴퓨터에서 한 번 또는 몇 차례 훈련할 수 있지만, 수명 동안 수십억 또는 수조 번의 요청을 처리할 수 있습니다. OpenAI의 ChatGPT, 구글의 Gemini, 메타의 Llama 기반 서비스는 이미 하루에 수천만 건의 프롬프트를 처리하고 있습니다. 대규모로 운영될 때, 추론 횟수는 훈련 횟수를 몇 배나 초월합니다.

그 비대칭성은 추론을 실제 수익 기계로 바꿉니다. 모든 채팅, 검색, 고객 지원 티켓 및 AI가 생성한 광고 크리에이티브는 추론 미터를 회전시킵니다. 클라우드 제공업체들은 이미 1,000개 토큰 또는 API 호출 당 요금을 부과하며, 기업 배포는 내부 사용을 같은 방식으로 측정하여 원시 컴퓨팅 사이클을 반복적인 수익으로 전환합니다.

NVIDIA는 누가 추론을 제어하느냐가 AI 경제의 구독 레이어를 제어한다는 것을 이해하고 있습니다. 학습은 일회성 대규모 GPU 클러스터에 기반한 불규칙한 자본 지출이며, 이는 몇 달에 걸쳐 분산됩니다. 추론은 SaaS처럼 작동하며: 예측 가능하고, 사용량 기반이며, 사용자 성장과 밀접하게 연결되어 있습니다. AI가 오피스 문서, CRM 시스템, 전화 UI에 스며들면서, 추론량과 요금은 클릭할 때마다 증가합니다.

최고의 추론 하드웨어를 소유하는 것은 그 위에 구축된 모든 AI 서비스의 운영 이익률을 결정하는 것을 의미합니다. 만약 귀하의 칩이 모델을 5배 빠르게 실행하고 에너지는 절반으로 줄일 수 있다면, 경쟁자들보다 가격을 저렴하게 하거나 그 차액을 이익으로 챙길 수 있습니다. 이 비용 차이는 AI 검색 쿼리가 $0.01인지 $0.0001인지의 여부를 결정하며, 이는 멋진 데모와 지속 가능한 제품의 차이를 만들어냅니다.

Groq의 LPU 아키텍처는 바로 그 병목 현상을 목표로 하고 있습니다: 초저지연, 결정론적 추론을 대규모로 제공합니다. NVIDIA는 Groq의 IP에 대한 비독점 권리를 확보하고 조너선 로스와 그의 팀을 영입함으로써, 자사의 실리콘이 모델을 훈련시킬 뿐만 아니라 그 뒤에 이어지는 수조 개의 추론을 지원하는 미래를 사들이고 있습니다.

숫자는 거짓말하지 않는다: Groq의 놀라운 속도

숫자들은 NVIDIA가 Groq를 무시할 수 없게 만들었습니다. Llama 2와 Mixtral과 같은 공개 LLM 벤치마크에서 Groq의 LPU 시스템은 유사하거나 낮은 전력 예산으로도 최상급 GPU 클러스터보다 대략 2–3배 빠른 추론 성능을 지속적으로 제공했습니다. 데모 배포에서는 7B–13B 매개변수 모델에 대해 20ms 이하의 종단 간 지연 시간을 보여주었으며, GPU 스택은 네트워킹 및 배치 오버헤드를 고려할 경우 종종 50–150ms 사이에 머물렀습니다.

그 원초적인 속도는 사용자 경험으로 직접 연결됩니다. 30ms에 응답하는 챗봇은 100ms에 응답하는 챗봇보다 웹 양식처럼 느끼지 않고, 더 실시간 대화처럼 느껴집니다. 실시간 번역은 더 이상 더빙된 영화처럼 들리지 않고, 각 문구가 당신의 입에서 나오는 즉시 거의 도착하는 인간 통역사처럼 작동합니다.

AI 에이전트에게 지연 시간은 산소와 같습니다. 20개의 도구 호출을 GPU에서 연결하면 작업을 완료하는 데 몇 초가 걸릴 수 있지만, Groq의 LPU에서는 같은 작업 흐름이 1초 이내로 단축될 수 있습니다. 이 차이는 AI 어시스턴트가 실시간 영업 통화를 관리할 수 있는지, 멀티플레이어 게임에서 협상할 수 있는지, 가구에 부딪히지 않고 로봇 군집을 조정할 수 있는지를 결정합니다.

그 숫자는 NVIDIA에게 뚜렷한 취약점을 만들어냈습니다. 하이퍼스케일러나 오픈 소스 플랫폼이 추론에 대해 Groq를 표준화한다면, GPU 중심의 데이터 센터는 훈련 전용 유물로 전락할 위험이 있었습니다. NVIDIA의 200억 달러 규모의 조치는, 반복적인 수익을 창출하는 추론 레이어를 경쟁사 실리콘 스택이 차지하는 미래를 효과적으로 무력화시켰습니다.

저지연 사용 사례는 Groq의 장점을 가장 극명하게 드러냅니다: - 고주파 거래 및 시장 조성 - 자율 주행 차량 및 드론 - 실시간 고객 지원 및 콜 센터 - 멀티플레이어 게임 및 인터랙티브 스트리밍 - 산업 제어 및 로봇 공학

분석가들은 이 위협을 조기에 경고했으며, Nvidia가 Groq 추론 기술을 라이센스하고 Groq 경영진이 반도체 제조업체에 합류한 것과 같은 보도는 NVIDIA가 Groq의 지적 재산과 인재를 자사에 끌어들이기 위해 얼마나 전략적으로 움직였는지를 강조합니다.

NVIDIA가 규제 당국과 4D 체스를 두는 법

워싱턴, 브뤼셀, 베이징의 규제 당국들이 현재 NVIDIA를 상어처럼 포위하고 있다. 이 회사는 이미 AI 가속기 시장의 70–80%를 차지하고 있으며, 감시 기관들은 Groq의 직접 구매보다 훨씬 작은 거래들조차 차단하거나 가혹하게 다루었다. 400억 달러 규모의 Arm 인수 실패와 진행 중인 EU 및 FTC의 조사 이후, 직접적인 경쟁사를 깨끗하게 인수하는 것은 자행적으로 반독점 법원에 가는 길처럼 보였다.

따라서 NVIDIA는 명백한 함정을 피했습니다. Groq를 인수하는 대신, Groq의 핵심 LPU IP에 대한 비독점 라이선스를 약 200억 달러에 구매하고, 동시에 조나단 로스와 그의 많은 고위 팀원들을 영입했습니다. Groq라는 회사는 살아남았지만, 지식과 설계는 이제 NVIDIA 안에 있습니다.

변호사들은 이것을 인허가 및 고용 거래라고 부르며, 합병이라고 보지 않습니다. 현재 법률에 얽매인 규제 당국은 IP 라이센스와 인재 유출을 집중 사건으로 간주하는 데 어려움을 겪고 있으며, 심지어 전략적 효과가 인수와 유사할 때조차도 그렇습니다. 지배권 변경 신고가 없고, 고전적인 합병 검토도 없으며, 경쟁자가 하나 줄어든 것을 보여주는 깔끔한 HHI 차트도 없습니다.

구조적으로, NVIDIA는 차단된 인수로 인해 얻을 수 있었던 거의 모든 것을 성취했습니다. Groq의 명령어 집합, 컴파일러 스택, 하드웨어 디자인에 대한 장기적인 접근을 확보했으며, 이를 발전시킬 수 있는 인적 자본도 확보했습니다. Groq는 이론적으로 다른 곳에 IP를 라이센스할 권리를 유지하고 있으나, 이제 어떤 경쟁업체든 이미 Groq의 기술이 통합된 NVIDIA 로드맵에서 최소 18-24개월 뒤처진 상태에서 시작하게 됩니다.

그 "비독점" 라벨은 실질적인 비대칭을 감추면서 강력한 법적 효과를 발휘합니다. NVIDIA는 Groq에서 파생된 블록을 미리 결제하고, 공동 설계하며, 미래의 추론 제품에 밀접하게 통합하여 CUDA 생태계와 네트워킹 구조를 최적화할 수 있습니다. 후발 라이선스 보유자는 다음과 같은 문제에 직면할 것입니다:

  • 1원래 핵심 팀에 접근할 수 없음
  • 2NVIDIA가 아키텍처를 반복하면서 끊임없이 변화하는 목표
  • 3NVIDIA의 소프트웨어 및 클라우드 스택에 대한 고객 잠금 효과

이 플레이북은 위험한 전례를 세웁니다. 대형 기술 기업들은 이제 IP 라이센스, 독점 통합, 대규모 인수를 통해 사실상 인수를 조합할 수 있으며, 이는 모두 고전적인 합병 정의에서 벗어나도록 구성되었습니다. 여전히 철도와 전화 회사에 맞춰진 반독점법은 코드와 계약을 동일하게 잘 아는 기업에게 우회당했습니다.

그로크를 위한 비어버린 껍질인가, 아니면 새로운 시작인가?

일러스트: 비어 있는 껍데기, 아니면 Groq을 위한 새로운 시작?
일러스트: 비어 있는 껍데기, 아니면 Groq을 위한 새로운 시작?

그로크는 200억 달러 거래 다음 날 아침에 깨어난다. 갑자기 현금이 풍부해지고 전략적으로 중요한 위치에 서게 되었지만, 자신의 두뇌를 잃은 모순적인 존재이다. 새로운 CEO 사이먼 에드워즈는 NVIDIA와 비독점 라이선스 하에 있는 핵심 칩 IP를 가진 회사를 운영하고 있으며, 이 칩을 설계한 대부분의 직원들은 현재 산타클라라에서 녹색 재킷을 입고 있다.

Groq의 남은 보석은 GroqCloud로, LPU 하드웨어를 API로 노출하는 호스팅 추론 플랫폼입니다. 이 서비스는 이미 GPU 스택에 비해 대규모 언어 모델 추론에서 2~3배 낮은 지연 시간을 보여주는 데모로 개발자들을 끌어모았으며, 여전히 고객 관계, 청구, 로드맵을 통제하고 있습니다. 모두가 트랜지스터가 아니라 토큰 단위로 컴퓨트를 임대하는 시장에서 이 추상화 계층은 중요합니다.

그러나 GroqCloud는 지금 이상한 경쟁 구도에서 운영되고 있다. NVIDIA는 자신의 클라우드 파트너와 DGX 플랫폼을 통해 동일한 라이센스 LPU IP를 노출할 수 있으며, Groq는 소프트웨어, 도구 및 개발자 경험으로 차별화를 시도하고 있다. 만약 NVIDIA가 가격을 낮추거나 기존 GPU 제품군과 LPU 기반 추론을 번들로 제공한다면, GroqCloud는 자신 기술의 부티크 버전이 될 위험에 처할 수 있다.

인재의 중력은 훨씬 더 큰 문제를 제기합니다. 조나단 로스, 써니 마드라, 그리고 다수의 수석 아키텍트들이 현재 NVIDIA의 조직도에 소속되어 있으며, 그로크에는 소속되어 있지 않습니다. 정의적인 지적 재산(ID)을 잃은 회사에 최고의 실리콘 및 시스템 엔지니어를 모집하는 것은 향수 어린 LPU의 전성기에 대한 회상보다는 매력적인 새로운 정립이 필요할 것입니다.

Groq는 더 높은 수준의 추상화에 집중하여 순수한 AI 추론 플랫폼으로 전환을 시도할 수 있습니다: 관리되는 런타임, 초저지연 스트리밍, 금융 틱 데이터나 멀티플레이어 게임과 같은 특화된 작업 부하. 또한, 하이퍼스케일러를 신뢰하지 않으면서 더 작고 유연한 공급업체를 원하는 엣지 및 온프레미스 고객을 겨냥할 수 있습니다.

장기적인 생존은 Groq가 NVIDIA가 즉각적으로 복사하거나 대량 유통할 수 없는 진정으로 새로운 것을 출시할 수 있는지에 달려 있습니다. 만약 GroqCloud가 단순히 NVIDIA가 효과적으로 통제하고 전 세계적으로 마케팅하는 기술의 브랜드화된 전면이 된다면, Groq는 역사적인 각주로 축소될 위험이 큽니다. NVIDIA가 추론 지배력을 키우는 과정에서 교묘한 규제 회피 수단이 될 수 있습니다. 만약 에드워즈가 그러한 어색한 독립성을 더 빠르고 기발한 아이디어를 위한 실험실로 발전시킬 수 있다면, Groq는 다음 하드웨어 사이클에서도 여전히 중요할 수 있습니다.

NVIDIA의 전환: GPU 제왕에서 AI 실리콘 황제로

NVIDIA는 더 이상 GPU 회사인 척 하지 않습니다. 200억 달러 규모의 Groq의 LPU 아키텍처에 대한 베팅은 라이선스 계약과 인재 확보를 포함한 구조로, AI 실리콘의 모든 중요한 부분을 소유하겠다는 전환을 나타냅니다. GPU가 AI 붐을 이끌었다면, 고도로 전문화된 가속기는 NVIDIA가 두 번째 막을 소유하기 위한 계획입니다.

단일 트로피 거래 대신, 이것은 광범위한 AI 실리콘 확보의 1단계로 보입니다. NVIDIA는 이미 훈련을 위한 H100과 B200, 메모리 집약적 작업을 위한 Grace Hopper, 그리고 Mellanox 인수로부터의 네트워킹 실리콘을 판매하고 있습니다. Groq의 IP는 초저지연, 결정론적 대규모 추론을 위한 누락된 조각을 채웁니다.

경쟁사들은 이 작업을 내부적으로 수년간 진행해왔습니다. 구글은 데이터 센터에서 GPU 병목 현상을 피하기 위해 TPU를 개발했습니다. 아마존은 AWS에서 비용을 조정하기 위해 Trainium과 Inferentia를 출시했습니다. 애플의 뉴럴 엔진은 모든 아이폰을 온-디바이스 추론 박스로 변환했습니다. NVIDIA의 움직임은 맞춤형 칩으로 작업을 잃기보다는 자사 전문 포트폴리오로 경쟁하겠다는 메시지를 전합니다.

NVIDIA는 이제 “어디에나 GPU” 보다는 모든 AI 단계에 맞춘 실리콘 메뉴처럼 보이는 스택을 추구하고 있습니다: - 학습: 고처리량 GPU 및 GPU 인접 가속기 - 세밀 조정: 메모리 최적화 및 혼합 정밀 부품 - 추론: LPU 및 기타 지연에 민감한 설계 - 네트워킹 및 상호 연결: NVLink, InfiniBand, 맞춤형 스위치

추론 경제학이 이러한 변화를 이끌고 있습니다. 교육은 가끔 이루어지지만, 추론은 24시간 연중무휴로 진행되며, 수십억 개의 쿼리를 처리합니다. Groq는 주요 추론 벤치마크에서 2–3배 속도 향상을 보고했으며, 결정론적 실행과 결합되어 토큰당 비용 절감과 클라우드 제공업체 및 기업의 마진 증가로 직접 이어집니다.

규제 당국은 라이선스 계약을 볼 수 있으며, 고객은 통합된 NVIDIA 하드웨어 로드맵을 보게 될 것입니다. Jonathan Ross와 Groq의 많은 최고 엔지니어링 인재를 내부로 끌어오는 동시에 비독점 지식재산(IP)을 라이선스함으로써, NVIDIA는 전면적인 반독점 싸움을 촉발하지 않고도 뇌물과 설계를 획득합니다. Groq는 브랜드로서 살아남지만, NVIDIA가 중심 역할을 조정하게 됩니다.

NVIDIA는 또한 AI 인프라의 "기본 선택"으로서의 입지를 더욱 강화하고 있습니다. 만약 GPU, LPU 그리고 이후 어떤 것이든에서 단일 소프트웨어 스택인 CUDA, TensorRT, Triton을 제공할 수 있다면, Google TPU, AWS Trainium 또는 맞춤형 ASIC으로의 전환은 더욱 어려워질 것입니다. 하드웨어 다양성과 소프트웨어 종속성.

이 배경을 고려할 때, Groq 거래는 기회주의라기보다는 헌법 작성에 가깝게 읽힌다. NVIDIA는 AI의 기초 하드웨어 레이어로 자리매김하고 있으며, 모든 챗봇, 코파일럿, 자율 에이전트를 지탱하는 실리콘 기판이다. 세부 사항을 주의 깊게 살펴보는 이들에게 NVIDIA, AI 추론 가속화를 위한 Groq와의 전략적 라이센스 계약 발표는 보도자료라기보다는 제국 선언에 가깝다.

당신의 AI 미래가 믿을 수 없을 만큼 빨라졌습니다.

당신의 AI 앱은 이제 로딩 바를 없앨 로드맵을 조용히 갖게 되었습니다. NVIDIA의 200억 달러 규모의 Groq 거래는 당신이 AI를 느끼는 정확한 순간, 즉 엔터를 누르고 답변을 받기까지의 정지를 겨냥하고 있습니다. 그 정지는 추론이며, Groq의 LPU 아키텍처는 이를 없애기 위해 존재합니다.

오늘날 가장 큰 모델들은 하드웨어와 네트워크에 따라 토큰당 30~800ms의 응답 시간을 보입니다. Groq의 하드웨어는 이미 주요 벤치마크에서 2~3배 더 빠른 추론 속도를 보여주었으며, 일부 공개 데모에서는 초당 수백 개의 토큰을 스트리밍하고 있습니다. 이를 NVIDIA의 스택에 통합하면 웹사이트처럼 느껴지기보다는 대화처럼 느껴지는 챗봇을 만들 수 있습니다.

실시간 어시스턴트는 더 이상 마케팅 용어에 그치지 않고 시스템 호출처럼 행동하기 시작합니다. 상상해 보세요: - 50ms 이내에 반응하여 인간의 중단과 구별할 수 없는 음성 비서 - 어색한 버퍼링 없이 빠른 말 속도를 따라가는 실시간 번역 - 매 장면이 아닌 매 프레임마다 대사와 전략을 즉흥으로 만드는 게임 내 NPC

온디바이스 AI는 다음으로 혜택을 볼 가능성이 큽니다. NVIDIA가 Groq 스타일의 추론을 더 효율적인 실리콘으로 확장함에 따라, 클라우드 GPU에서 로컬 칩으로 더 많은 작업을 오프로드할 수 있습니다. 이는 복잡한 요약, 다중 문서 검색 또는 비디오 이해가 거의 제로에 가까운 지연 시간으로 노트북, 콘솔 또는 자동차 대시보드에서 실행될 수 있음을 의미합니다.

개발자들은 가장 큰 창의적인 해방을 경험합니다. 지연 시간이 수백 밀리초에서 수십 밀리초로 줄어들면, 더 많은 모델을 연결하고, 더 많은 에이전트를 병렬로 실행하며, 사용자가 이탈하지 않고도 긴밀한 상호 작용 루프를 유지할 수 있습니다. 전체 카테고리—IDE 내부의 AI 코파일럿, 실시간 연구 보조 도구, 적응형 튜터링 시스템—가 갑자기 기술 데모처럼 보이지 않고 대규모에서 실행 가능해집니다.

더 낮은 지연 시간은 비용과도 복합적으로 작용합니다. 더 빠르고 전문화된 추론 실리콘은 와트당 및 달러당 더 많은 쿼리를 발생시킵니다. 이는 개발자들이 항상 켜놓기에는 너무 비쌌던 기능, 예를 들어 백그라운드 추론, 지속적인 문서 모니터링 또는 대규모 온라인 세계에서의 지속적인 NPC 메모리를 구현하도록 장려합니다.

경쟁은 가만히 있지 않을 것입니다. AMD, 인텔, 구글, 그리고 수많은 스타트업들이 초고속 추론이 전장이 될 것이라는 200억 달러의 신호를 받았습니다. AI 하드웨어에서의 이러한 무기 경쟁은 모델을 더 똑똑하게 만드는 것에 그치지 않고, 진정으로 즉각적이고 주변적인 AI를 예정보다 수년 앞서 주류 장치로 끌어올릴 것입니다.

자주 묻는 질문들

NVIDIA가 실제로 Groq를 인수했나요?

아니요. NVIDIA는 Groq의 지적 재산을 비독점적으로 라이선스하고 창립자 조너선 로스를 포함한 주요 인재를 채용하는 200억 달러 규모의 거래를 체결했습니다. 이는 Groq가 독립적인 회사로 남을 수 있게 하여 반독점 규제를 피하는 데 주안점을 두고 있습니다.

Groq LPU는 무엇이며, NVIDIA GPU와 어떤 점이 다른가요?

LPU, 또는 언어 처리 장치,는 AI 추론을 위해 특별히 설계된 맞춤형 칩입니다. AI 모델을 실행하여 답변을 얻는 작업을 수행합니다. GPU는 보다 일반적인 용도로 설계되어 있으며, 전통적으로 AI 훈련에서 우수한 성능을 발휘하지만, 이는 다른 더 계산 집약적인 과정입니다.

AI 추론이 수익에 있어 AI 교육보다 더 중요한 이유는 무엇인가요?

모델 훈련은 대규모의 일회성 또는 가끔씩 발생하는 작업인 반면, 추론은 사용자가 질문을 하거나 AI 기능을 사용할 때마다 발생합니다. 수십억의 사람들이 매일 AI를 사용함에 따라, 추론 작업의 수는 훈련 작업을 기하급수적으로 초과하게 되어, 확장 가능한 장기 수익의 가장 큰 원천이 될 것입니다.

조나단 로스는 누구인가요?

조나단 로스는 Groq의 창립자이자 LPU 기술의 발명가입니다. Groq를 시작하기 전, 그는 구글에서 핵심 엔지니어로 근무하며 구글의 맞춤형 AI 칩인 텐서 프로세싱 유닛(TPU)을 발명했습니다.

Frequently Asked Questions

그로크를 위한 비어버린 껍질인가, 아니면 새로운 시작인가?
See article for details.
NVIDIA가 실제로 Groq를 인수했나요?
아니요. NVIDIA는 Groq의 지적 재산을 비독점적으로 라이선스하고 창립자 조너선 로스를 포함한 주요 인재를 채용하는 200억 달러 규모의 거래를 체결했습니다. 이는 Groq가 독립적인 회사로 남을 수 있게 하여 반독점 규제를 피하는 데 주안점을 두고 있습니다.
Groq LPU는 무엇이며, NVIDIA GPU와 어떤 점이 다른가요?
LPU, 또는 언어 처리 장치,는 AI 추론을 위해 특별히 설계된 맞춤형 칩입니다. AI 모델을 실행하여 답변을 얻는 작업을 수행합니다. GPU는 보다 일반적인 용도로 설계되어 있으며, 전통적으로 AI 훈련에서 우수한 성능을 발휘하지만, 이는 다른 더 계산 집약적인 과정입니다.
AI 추론이 수익에 있어 AI 교육보다 더 중요한 이유는 무엇인가요?
모델 훈련은 대규모의 일회성 또는 가끔씩 발생하는 작업인 반면, 추론은 사용자가 질문을 하거나 AI 기능을 사용할 때마다 발생합니다. 수십억의 사람들이 매일 AI를 사용함에 따라, 추론 작업의 수는 훈련 작업을 기하급수적으로 초과하게 되어, 확장 가능한 장기 수익의 가장 큰 원천이 될 것입니다.
조나단 로스는 누구인가요?
조나단 로스는 Groq의 창립자이자 LPU 기술의 발명가입니다. Groq를 시작하기 전, 그는 구글에서 핵심 엔지니어로 근무하며 구글의 맞춤형 AI 칩인 텐서 프로세싱 유닛을 발명했습니다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts