구글의 새로운 AI가 규칙을 재개정하다

구글이 제미니 3 플래시를 출시했습니다. 이 모델은 매우 빠르고 저렴해 이미 지구상에서 가장 뛰어난 모델로 불리고 있습니다. 하지만 OpenAI와 NVIDIA가 각자의 대규모 변화를 일으키면서 AI 환경이 실시간으로 재편되고 있습니다.

Stork.AI
Hero image for: 구글의 새로운 AI가 규칙을 재개정하다
💡

TL;DR / Key Takeaways

구글이 제미니 3 플래시를 출시했습니다. 이 모델은 매우 빠르고 저렴해 이미 지구상에서 가장 뛰어난 모델로 불리고 있습니다. 하지만 OpenAI와 NVIDIA가 각자의 대규모 변화를 일으키면서 AI 환경이 실시간으로 재편되고 있습니다.

플래시 포인트: 구글의 새로운 속도 괴물

구글이 제미니 3 플래시로 모델 전쟁에서 빠르게 승부수를 던졌습니다. 이 시스템은 속도, 품질, 가격 모두를 동시에 갖춘 것으로 설계되었습니다. 구글은 최첨단 점수만을 추구하는 대신, 플래시를 일상적인 사용을 위한 “전반적으로 가장 좋은 모델”로 홍보하고 있습니다: 실시간 에이전트에 충분할 만큼 빠르고, 자체 최첨단 모델과 경쟁할 만큼 스마트하며, 생태계를 가득 채우기 충분할 만큼 저렴합니다.

가격은 이 조치가 얼마나 공격적인지를 보여줍니다. Gemini 3 Flash는 1백만 개의 입력 토큰당 약 $0.50로 제공되며, 대략 다음과 같습니다: - Gemini 3 Pro의 1/4 가격 - Claude Sonnet 4.5의 1/6 가격 - GPT-5.2의 1/3 가격

대량 작업을 수행하는 개발자들에게 이는 단순한 반올림 오차가 아니라, 비즈니스 모델의 변화입니다.

성능 벤치마크가 자신감을 뒷받침합니다. SWE-bench Verified라는 금본위 코딩 벤치마크에서 Gemini 3 Flash는 약 78%의 점수를 기록하여 Gemini 3 Pro를 약 2% 포인트 앞서고 있으며, GPT-5.2와는 단 2점 차이로 뒤쳐져 있습니다. 또한 Claude Sonnet 4.5를 능가하기도 했습니다. MMMU 스타일의 추론과 같은 멀티모달 테스트에서는 Flash가 Pro와 사실상 막상막하의 성능을 보여주어, 이러한 할인 혜택이 더욱 파급력을 가집니다.

속도는 여기서 진정한 이념입니다. 구글은 명백히 빠른 속도를 중시하는 개발자, 즉 학술 리더보드에서 마지막 1%를 끌어내는 것보다 지연 시간에 더 신경을 쓰는 개발자들에게 맞추고 있습니다. 저지연 응답은 코드 작성을 하면서 자동 완성하는 AI 코파일럿, 실시간 고객 지원 봇, 그리고 초당 수십 개의 도구 호출을 연결하는 에이전트 작업 흐름에 중요합니다.

에이전트 프레임워크는 지연 시간이 어떻게 복합적으로 누적되는지를 드러냅니다. 만약 워크플로우가 20개의 모델 호출을 유발하고 각각이 1.5초가 걸리면, 경험은 “인터랙티브”에서 “잠시 기다려 주세요”로 무너집니다. Gemini 3 Flash는 많은 작업에서 200–400ms 범위에 자리 잡으려고 하며, 이는 복잡한 다단계 에이전트를 데모용에서 실제로 출하할 수 있는 것으로 바꿉니다.

구글은 제미니 3 플래시가 대부분의 주요 벤치마크에서 제미니 3 프로와 "거의 비슷하다"고 주장하며, 특히 코딩 부문에서는 플래시가 심지어 더 앞서기도 했다고 전했습니다. 이는 이 이야기의 나머지 부분에서 명확한 질문을 제기합니다: 더 저렴하고 빠른 모델이 이 정도로 비슷하다면, 프로 모델은 언제 여전히 중요할까요?

자신들의 게임에서 타이탄들을 이기기

일러스트: 거인들을 그들의 게임에서 이기기
일러스트: 거인들을 그들의 게임에서 이기기

자신의 벤치마크 게임에서 프론티어 모델을 이기려면 일반적으로 대형 시스템이 필요하며, "빠른" 변형으로는 부족합니다. Gemini 3 Flash는 SWE-bench 인증 점수 78%로 이 패턴을 깨트리며, 이는 코딩 계층을 즉각적으로 재정렬합니다. Flash는 76%의 Gemini 3 Pro보다 두 점 높고, GPT-5.280%에는 단 두 점이 모자란 점수입니다. 게다가 가격 면에서도 모두를 앞섭니다.

코딩 벤치마크는 저렴한 모델에서의 편법을 드러내는 경향이 있지만, Flash는 이를 견뎌냅니다. SWE-bench Verified는 버그 이해부터 코드 편집, 테스트 통과에 이르기까지 실제 GitHub 문제를 종합적으로 측정합니다. 여기서 78%를 기록한다는 것은 Flash가 단순히 보일러플레이트 자동완성을 넘어선다는 의미이며, 낯선 리포지토리를 탐색하고, 패치를 적용하며, 테스트 스위트를 통과할 수 있음을 보여줍니다.

다양한 유형의 테스트는 비슷한 이야기를 들려줍니다. 다이어그램, 차트, 기술 도표를 포함한 악명 높은 시험 스타일의 벤치마크인 MMMU-Pro에서 Gemini 3 Flash는 81.2%의 점수를 기록하여 Gemini 3 Pro의 81.0%를 제치고 GPT-5.2의 79.5%보다 앞서 나갔습니다. 이러한 성과는 Flash가 코드 수정과 같은 세션에서 스택 트레이스의 스크린샷을 읽고, 디자인 사양 PDF를 분석하며, UI 목업에 대해 추론할 수 있음을 시사합니다.

순위가 숫자와 함께 올라오고 있습니다. 텍스트, 코드, 멀티모달 점수를 융합한 인공지능 분석 지수(Artificial Analysis Intelligence Index)에서 플래시 시리즈가 긴 꼬리에서 전체 3위로 도약했습니다. 이 도약은 Claude Opus 4.5와 같은 강력한 모델을 넘어서는 것으로, 이는 특수한 지연 성능이 아니라 진정한 프론티어 경쟁자임을 알립니다.

개발자들에게 이 공식은 극단적으로 단순해집니다: 달러당 성능. 약 백만 개 입력 토큰당 $0.50—Gemini 3 Pro의 약 4분의 1, GPT-5.2의 3분의 1 정도인 가격으로—Flash는 거의 경계에 가까운 코딩 품질, 경계 수준의 다중 모드 이해, 그리고 실시간 속도를 제공합니다. 이 조합은 Gemini 3 Flash를 에이전트, 개발 도구, 또는 CI 봇을 배포하는 모든 이에게 새로운 기본 코딩 모델로 만들어 줍니다. 여기서 모든 추가 밀리초와 추가 센트는 실제 대시보드에 나타나기 때문입니다.

구글의 트로이 목마: 모두를 위한 무료 서비스

구글은 조용히 고전적인 트로이 목마 전략을 구사하고 있습니다: 최첨단 모델을 어디에나 배포하고 소비자에게는 가격을 제로로 설정해 배급이 나머지를 처리하도록 하는 것입니다. Gemini 3 Flash는 이제 Gemini 앱 내에 있으며, Workspace(문서, 시트, Gmail, Meet)를 통해 스며들고, Google 검색 위에 항상 켜져 있는 어시스턴트로 구글 계정을 가진 누구에게나 제공됩니다.

이전에는 파란 링크였던 검색 결과가 이제 점점 더 Flash 기술로 강화된 생성형 답변 뒤에 위치하고 있습니다. Workspace에서는 동일한 모델이 Gmail에서 이메일을 작성하고, Docs에서 문서를 수정하며, Meet에서 회의를 요약하고, Slides에서 슬라이드를 자동 생성하는 등 모두 '도와주세요, 작성하기' 스타일의 UX 하에 운영됩니다. 사용자에게 이것은 단일의 무료 유틸리티로 흐릿하게 통합됩니다: 당신이 타이핑하면, 제미니가 응답합니다. 어떤 앱이든 상관없이 말이죠.

무료 계층은 두 번째로, 훨씬 더 공격적인 전선인 개발자 가격 책정을 숨기고 있습니다. API에서는 Flash가 100만 개 입력 토큰당 약 0.50달러로 제공되며, 경쟁업체보다 여러 배 저렴합니다: - Gemini 3 Pro보다 약 4배 저렴 - Claude Sonnet 4.5보다 약 6배 저렴 - GPT-5.2보다 약 3배 저렴

이는 "무료" 소비자 노출을 스타트업과 기업들이 자사 제품 뒤에 동일한 모델을 원할 때의 퍼unnel로 전환합니다.

최전선 수준의 모델을 수십억 명이 무료로 사용할 수 있도록 만드는 것은 어떤 벤치마크 차트보다 더 깊은 영향을 미칩니다. Gmail에서 능숙한 코드 수정, Sheets에서의 스프레드시트 수식, Search에서의 연구 요약을 받는 사용자들은 고품질 AI 지원을 프리미엄 추가 기능이 아닌 일상적인 인프라로 간주할 것입니다. 한 번 그러한 기대가 확고해지면, 느리거나 더 비효율적이거나 유료 장벽이 있는 모든 것은 부서진 것으로 느껴질 것입니다.

개발자들에게는 이 계산이 brutal하게 바뀝니다. 모든 안드로이드 폰, 크롬북, 크롬 탭에 있는 “괜찮고 무료인” 것들과 경쟁하려면 유료 어시스턴트가 단순히 더 나아야 하는 것이 아니라 눈에 띄게 더 나아야 합니다. 대부분은 대신 Flash에 기반을 두고 Google의 자체 제품을 지원하는 같은 API를 사용할 것입니다. 이 API는 Gemini 3 Flash – Google DeepMind에 문서화되어 있습니다.

이 양면의 추진력—소비자에게는 무료로 널리 퍼짐, 개발자에게는 약탈적 가격 책정—은 단일 제품보다는 운영 체제에 가깝게 보이는 해자를 형성합니다. 만약 구글이 성공한다면, “AI 사용”은 “제미니 사용”으로 축소되고, “웹 검색”이 “구글링”으로 축소된 것처럼, 플랫폼 전환은 더 이상 기능 선택이 아니라 플랫폼 이전이 됩니다.

NVIDIA의 열린 대답: 네모트론 갬빗

NVIDIA는 Google의 폐쇄형 Gemini 접근 방식에 대해 매우 다른 답변을 가지고 있습니다: 네모트론 3는 다른 사람의 데이터 센터가 아닌 귀하의 데이터 센터에 배치되도록 설계된 공개 가중치 모델의 가족입니다. Gemini 3 Flash가 토큰 단위로 임대하는 API인 반면, Nemotron은 다운로드하고, 미세 조정하며, 완전히 소유할 수 있는 것입니다.

Nemotron 3의 핵심에는 전문가 혼합(MoE) 아키텍처가 있어 NVIDIA는 "총" 매개변수 대비 "활성" 매개변수에 대해 이야기합니다. Nano는 총 300억 개의 매개변수를 가지지만 토큰당 30억 개만 활성화합니다. Super는 총 1000억 개로 증가하며, 100억 개가 활성화되고, Ultra는 총 5000억 개로 증가하면서 500억 개가 활성화됩니다.

MoE는 모든 요청에 대해 전체 네트워크를 활성화하지 않고, 몇몇 전문 전문가에게 토큰을 라우팅한다는 의미입니다. 이것은 추론 비용을 3B, 10B 또는 50B 밀집 모델에 더 가깝게 유지하면서 훨씬 더 큰 용량을 보존합니다. 기업에게는 매 호출마다 최전선 수준의 GPU 소모 없이 최전선 클래스의 성능으로 이어집니다.

NVIDIA는 Nemotron 3를 이전 Nemotron 2 세대보다 4배 빠르다고 홍보하고 있는데, 이는 H100 또는 L40S에서 직접 실행하고 싶다면 클라우드 LLM에 호출당 비용을 지불하는 대신 매우 중요한 변화입니다. 이 속도 향상은 에이전트와 도구를 연결하기 시작할 때 더욱 중요해지며, 이때 지연 시간이 단계마다 누적됩니다. Nemotron 3의 훈련 데이터는 추론, 코딩, 다단계 워크플로우에 초점을 맞춘 약 3조 개의 토큰으로 구성되어 있습니다.

CIO들에게의 판매 프레젠테이션은 직설적입니다: 공급업체 종속 없음, 불투명한 데이터 보존 정책 없음, 예상치 못한 가격 인상 없음. 온프레미스에서 가중치를 유지하고, 자체 규정 준수 규정을 적용하며, 독점 코드베이스, 문서 및 로그에 대해 RLHF 또는 도메인 미세 조정을 수행할 수 있습니다. 원시 데이터를 외부 API로 전송할 수 없는 규제 산업에 있어 그 제어는 선택 사항이 아니라 필수 요소입니다.

NVIDIA는 또한 Nemotron 3을 익숙한 툴 체인으로 감쌌습니다. 모델은 이미 LM Studio, Llama.cpp, SG Lang, VLLM에 슬롯할 수 있으며, 즉시 다운로드를 위해 Hugging Face에서 제공됩니다. 메시지는 명확합니다: Gemini 3 Flash가 오픈 웹의 기본이라면, Nemotron 3은 귀하의 방화벽 뒤에 있는 모든 것의 기본이 되고 싶습니다.

프랑켄슈타인 모델을 해방하다

일러스트레이션: 프랑켄슈타인 모델 해방하기
일러스트레이션: 프랑켄슈타인 모델 해방하기

오픈 웨이트 라이선스 아래 출시된 Nemotron 3는 단일 모델이라기보다 프랑켄 AI를 위한 구성 키트에 가깝습니다. NVIDIA는 단순히 Nano, Super, Ultra 체크포인트를 제공하는 것이 아니라, 기업들이 자신의 괴물을 키울 수 있도록 설계된 풀 스택 툴링 및 데이터 파이프라인을 제공하고 있습니다. 그 중심에는 사전 훈련, 후 훈련 및 강화 학습 흔적을 포함하는 3조 토큰 규모의 말뭉치가 있다고 전해집니다.

그 3조 개의 토큰은 단순히 긁어온 웹 텍스트가 아니기 때문에 중요합니다. NVIDIA는 데이터에 내재된 풍부한 추론, 코딩 및 다단계 워크플로우 사례를 설명하며, 이는 에이전트 스타일의 행동을 위해 명시적으로 큐레이션되었습니다. 처음부터 블랙박스 API에 귀하의 프로세스를 배우도록 애원하는 대신, 이미 복잡한 도구 사용 및 조정 패턴을 보유한 모델에서 시작할 수 있습니다.

오픈 가중치는 정렬 이야기를 완전히 뒤집습니다. Nemotron 3를 사용하면 팀이 자신의 데이터와 보상 함수로 맞춤형 강화 학습 루프를 실행하여 비즈니스에 특화된 정책을 인코딩할 수 있습니다. 7% 이상의 할인 제안을 절대 하지 않는 판매 보조 도구나 좁은 범위를 벗어난 모든 것을 강력히 거부하는 법률 봇이 필요하신가요? 이를 보상 신호로 formalize하고 그에 맞춰 훈련할 수 있습니다.

중요하게도, 이는 처음부터 RL 스택을 만들 필요가 없습니다. NVIDIA는 개발자들이 자신의 인프라에서 직접 RLHF, RLAIF 또는 밴딧 스타일 최적화를 스크립트할 수 있도록 기존의 CUDA, TensorRT-LLM 및 NeMo 도구에 Nemotron을 연결하고 있습니다. 이 정렬 루프는 온프레미스, VPC 내 또는 임대한 GPU에서 실행할 수 있지만, 기울기 업데이트와 가중치는 귀하의 통제 아래에 있습니다.

커뮤니티 지원이 거의 즉시 이루어졌습니다. LM Studio는 취미 사용자들이 GUI로 로컬에서 Nemotron 3를 실행할 수 있도록 추가했습니다. Llama.cpp 지원 덕분에 양자화된 변형들이 노트북과 엣지 디바이스에서 실행될 수 있으며, SG Lang 및 VLM 통합은 구조화된 에이전트와 비전-언어 워크플로우를 겨냥합니다. Hugging Face에서는 Nemotron 체크포인트가 LoRA, QLoRA, 및 PEFT와 같은 기존의 미세 조정 레시피에 최소한의 접착 코드로 통합됩니다.

구글, 오픈AI 또는 앤트로픽의 독점 API와 대조적으로, 이러한 모델은 일관된 안전 정책과 불투명한 훈련 데이터, 제한된 조정 기능(온도, 시스템 프롬프트, 어쩌면 "엄격함" 슬라이더)과 함께 완제품으로 제공됩니다. 네모트론의 접근 방식은 정반대의 방향에서 시작합니다. 즉, 개발자들이 맞춤형, 정책에 aligned, 도메인 조정된 프랑켄모델로 연결할 수 있는 원시적이고 검토 가능한 빌딩 블록들입니다.

OpenAI의 이미지 블리츠: 보는 것이 믿는 것이다

OpenAI는 구글의 모델 블리츠에 비해 다른 방식의 유연함을 보여주었습니다: 비전. 이 회사는 ChatGPT 내부에 직접 통합된 이미지 생성기인 ChatGPT Image 1.5를 출시했으며, 이는 수년간 AI 아트 도구들이 겪어온 정확한 약점들인 지시 따르기, 텍스트 렌더링, 느리고 불안정한 편집을 목표로 하고 있습니다.

가장 명확한 데모는 겉보기에는 단순하지만 실제로는 효과적인 6x6 그리드입니다. OpenAI는 모델에 “6x6 그리드를 그려라”라고 요청하고, 각 셀의 내용을 행별로 지정합니다—그리스 문자, 물체, 기호 등이 정확한 위치에 배치됩니다. 이전 이미지 모델은 4x6.5에 가까운 엉망인 결과물을 생성하여 박스들이 정렬되지 않았고, 일부 항목이 누락된 반면, 이미지 1.5는 완벽한 6x6 레이아웃을 출력하여 모든 칸이 정확하고 허구의 추가 항목이 없습니다.

그러한 공간적 순응의 수준은 이미지 생성이 감성 기계에서 레이아웃 엔진으로 변모하기 때문에 중요합니다. 디자이너는 이제 다음과 같은 요청을 할 수 있습니다: - 라벨이 있는 패널이 포함된 스토리보드 - 특정 버튼 텍스트가 포함된 UI 목업 - 제한된 로고 배치가 있는 패키징 개념

구형 모델은 이러한 구조를 자주 망가뜨렸습니다; 이미지 1.5는 이를 스펙 시트처럼 다룹니다.

텍스트 렌더링은 역사적으로 AI 아트에서 가장 민망한 파티 트릭 중 하나였으나 이제 한 단계 상승했습니다. OpenAI의 샘플에서는 간판, 포스터, 그리고 밀집된 광고 문구까지도 깔끔하고 읽기 쉽게 나타나며, 왜곡된 글자나 의미 없는 단어가 없습니다. “image gen 1.5”에 대한 버스 광고가 있는 런던 거리 장면을 위한 프롬프트는 실제로 “image gen 1.5”라고 적힌 광고를 생성하며, “imqge gcn 15”라고 하지 않습니다.

그 신뢰성은 더 진지한 상업적 용도를 열어줍니다. 브랜드는 임시 gibberish 대신 실제 슬로건으로 캠페인 비주얼을 프로토타입할 수 있습니다. 독립 창작자들은 인쇄소와의 접촉에도 견딜 수 있는 책 표지, 썸네일 또는 상품 개념을 생성할 수 있습니다. 이는 ChatGPT를 “콘셉트 아트” 영역에서 벗어나 생산 연관 워크플로로 이동시켜 텍스트와 레이아웃에 대한 신뢰성이 비협상적이 되도록 합니다.

편집 기능도 업그레이드됩니다. OpenAI는 보다 정밀한 "나노 바나나" 스타일의 편집 기능을 ChatGPT 이미지 1.5에 통합하여 사용자가 전체 장면을 재생성하지 않고도 요소를 정밀하게 조정할 수 있도록 합니다—의상을 교체하거나, 조명을 변경하거나, 물체를 제거하는 것이 가능합니다. 이전 ChatGPT 이미지 모델에 비해 4배 속도 개선과 결합되어 이 도구는 더 이상 Midjourney의 느린 프롬프트 룰렛처럼 느껴지지 않고, 반응성이 뛰어난 포토샵 보조 도구와 같은 느낌을 주기 시작합니다.

모든 이 상황은 미드저니의 영역에 완벽하게 맞아떨어집니다. 미드저니가 디스코드에서 원초적인 미적 감각으로 여전히 우위를 점하고 있는 반면, 오픈AI는 제어, 텍스트 정확성, 그리고 채팅 인터페이스 내부에서의 밀접한 반복 고리를 통해 경쟁하고 있습니다. 그리고 NVIDIA가 NVIDIA 데뷔 네모트론-3 가족의 오픈 모델과 같은 노력을 통해 오픈 웨이트 이미지 및 멀티모달 스택을 추진하는 동안, 오픈AI는 ChatGPT 내부에서 고도로 통합된 고정밀 비주얼이 주류 사용자들을 자사 생태계에 확실히 가두게 될 것이라고 예상하고 있습니다.

모든 것을 아우르는 앱: OpenAI의 운영 체제 야망

OpenAI는 더 이상 일회성 모델을 배송하는 스타트업처럼 행동하지 않습니다; 이제는 웹 브라우저를 대체하려는 회사처럼 행동하고 있습니다. 전략은 ChatGPT를 인터넷의 기본 진입점으로 만들고, 사용자가 단일 채팅 창을 떠나지 않고도 검색, 쇼핑, 창작 및 다른 앱들을 제어할 수 있는 장소로 변모시키는 것입니다.

최근 통합에서는 OpenAI가 그 비전을 얼마나 공격적으로 추진하고 있는지를 보여줍니다. Apple은 ChatGPT 내에서 Apple Music의 스위치를 조용히 켜, 사용자가 플레이리스트를 검색하고, 자신의 라이브러리를 불러오며, 프롬프트에서 직접 믹스를 생성할 수 있게 했습니다. Adobe는 Creative Cloud와의 연결을 뒤따라, ChatGPT가 포토샵 준비가 된 자산을 생성하고, 일러스트레이터 벡터를 수정하며, 평면 JPEG 대신 레이어가 있는 파일을 전송할 수 있도록 했습니다.

그것들은 단순한 귀여운 데모가 아닙니다; 그것들은 운영 체제의 움직임입니다. ChatGPT는 이제 챗봇처럼 보이지 않고, 네이티브 앱 위에 위치한 유니버설 셸처럼 보이게 되며, 플러그인은 시스템 호출로 작용합니다. 하나의 모델에 Apple Music, Adobe 도구, 예약 사이트 및 생산성 도구를 조정하라고 요청할 수 있다면, 전통적인 앱 아이콘 그리드는 레거시 UI처럼 느껴지기 시작합니다.

그 야망은 어마어마한 양의 컴퓨팅을 요구하며, 여기서 소문으로 떠도는 100억 달러 아마존 거래가 등장합니다. The Information에 따르면, OpenAI는 AWS 실리콘에서 미래 모델을 실행하기 위한 다년 계약을 논의하고 있으며, 여기에는 Trainium 및 Inferentia 칩이 포함되고, 기존의 Microsoft Azure와 함께 사용할 예정입니다. 아마존은 단순히 유명 AI 고객을 확보하는 것이 아니라, 에크사플롭스를 기꺼이 소모할 고객을 잠금을 해제합니다.

그 관점을 통해 보면, Apple Music과 Adobe 통합은 훨씬 더 큰 인프라 투자에서 사용자 측면의 모습처럼 보인다. 더 많은 통합은 사람들이 Safari, Chrome 또는 네이티브 앱 대신 ChatGPT에서 세션을 시작할 더 많은 이유를 의미한다. 더 많은 사용자는 AWS와 Azure 용량에 대한 막대한 비용을 지출하는 것을 정당화하며, 이는 차세대 더 크고 빠르며 다중 모드의 모델을 지원하는 데 기여한다.

플라이휠은 다음과 같이 생겼습니다: - 새로운 고부가가치 통합(Apple Music, Adobe, 엔터프라이즈 도구) - ChatGPT 내에서 더 많은 일일 활성 사용자와 높은 참여도 - GPU 및 Trainium 클래스 가속기에 대한 대규모 자본 지출을 위한 강력한 근거 - 더 많은 통합을 유도하는 더욱 강력한 모델과 기능

OpenAI가 이 목표를 달성한다면, ChatGPT는 더 이상 단순한 제품이 아니라 다른 서비스들이 연결해야 하는 플랫폼 계층이 됩니다. 구글은 검색과 안드로이드 곳곳에 제미니를 통합하고 싶어하고, OpenAI는 ChatGPT가 모든 것 위에 자리잡기를 원합니다.

인공지능 영역 쟁탈전이 격화되고 있다

일러스트: AI 땅 쟁탈전이 뜨거워진다
일러스트: AI 땅 쟁탈전이 뜨거워진다

AI는 몇 달 전부터 두 마리 경주마의 경쟁이 아닙니다. 구글, 오픈AI, NVIDIA가 벤치마크 경쟁을 벌이는 동안, 두 번째 전선이 열리고 있습니다: 인프라 정책, 기업 대기업, 그리고 어떤 단일 모델 카드보다 더 중요한 의미를 가질 수 있는 조용한 오픈 소스 작업이 그것입니다.

줌이 자체 대형 모델과 “연합 AI” 디자인으로 최첨단 모델의 경연을 중단시켰습니다. 이 시스템은 하나의 거대한 모델이 모든 것을 처리하는 대신, 각 사용자 질문을 회의 요약부터 영업 통화 분석까지 작업에 가장 적합한 전문 모델(내부 모델 또는 타사 모델)로 라우팅합니다.

초기 내부 테스트 결과, 이 라우터는 각 기본 모델이 이론적으로 더 작더라도 엔드 투 엔드 작업에서 단일 모놀리식 모델을 능가할 수 있다는 것이 밝혀졌습니다. 이를 AI 로드 밸런서로 생각해 보세요: 하나는 전사에 최적화되고, 또 하나는 코드에, 다른 하나는 추론에 최적화되어 실시간으로 조율됩니다. 이미 많은 통화 데이터와 CRM 기록을 보유한 기업들에게는 이 모델-모델 접근 방식이 단일 5000억 매개변수의 거대 모델에 모든 베팅을 하는 것보다 훨씬 더 실용적으로 보입니다.

정치는 따라잡으려 애쓰고 있다. 상원 의원 버니 샌더스는 국가 데이터 센터에 대한 일시 중지를 촉구하며, 하이퍼스케일 AI 구축이 전력, 물, 토지를 소모하고 소수의 기술 대기업에게만 부를 안겨준다고 주장하고 있다. 그의 측근들은 지역 전력망의 부담, 상승하는 공공요금, 그리고 AI 주도 자동화가 창출하는 일자리보다 더 많은 일자리를 없앨 위험을 지적하고 있다.

반대자들은 지정학적 스프레드시트를 가지고 반격한다. 그들은 미국 데이터 센터의 성장 속도가 느리다고 주장하며, 국가 지원을 받는 클라우드 구축이 더 적은 제약을 받는 중국에 최전선 모델의 우위를 넘기게 된다고 강조한다. 그들은 또한 중단이 발생하면 사라지는 수만 개의 일자리—건설, 그리드 업그레이드, 칩 제조, 모델 운영—와 저렴하고 풍부한 컴퓨팅을 의존하는 downstream 스타트업을 지적한다.

한편 메타는 조용히 오픈 생태계를 지원하고 있습니다. 회사의 새로운 SAM 3D는 Segment Anything 작업을 오디오 세분화로 확장하여 연구자들이 복잡한 사운드스케이프—음성, 악기, 환경 소음—를 라벨이 붙은 구성요소로 나눌 수 있게 해줍니다. 화려한 기조연설도 없고, “지구 최고의 모델” 같은 과장된 표현도 없으며, 단지 누구나 리믹스할 수 있도록 GitHub에 배포된 또 다른 유능한 오픈 웨이트 도구입니다.

속도 대 주권 전쟁에서 누가 승리할까?

속도가 이제 주권과 정면 충돌하고 있습니다. 한쪽에는 약 0.50달러에 만 개의 입력 토큰당 비용이 들고, 78% SWE-벤치 인증 점수를 기록하여 GPT-5.2의 80%에 근접한 Gemini 3 Flash라는 독점 API가 있습니다. 반대편에는 다운로드하고, 미세 조정하며, 자신의 인프라에서 실행할 수 있는 공개 가중치를 제공하는 NVIDIA Nemotron 3가 있습니다.

제미니 3 플래시는 원가 대비 성능을 최적화합니다. 구글은 이를 제미니 앱, 작업 공간, 검색에 통합하여 종종 최종 사용자에게 실질적으로 무료로 제공합니다. 모든 복잡한 부분—스케일링, 가동 시간, GPU 조달—은 단일 HTTPS 엔드포인트 뒤에 처리됩니다. AI 기능을 신속하게 출시해야 하는 스타트업에게는 “구글의 API 호출”이 “MLOps 팀을 고용”하는 것보다 항상 더 유리합니다.

Nemotron 3는 그 공식을 뒤바꿉니다. 당신은 제어, 맞춤화, 그리고 데이터 거주지를 얻습니다: 온프레미스, VPC 내 또는 공용 API 승인을 절대 받지 못하는 규제된 환경 내에서 호스팅할 수 있는 오픈 가중치의 Nano, Super, Ultra 크기의 모델들입니다. 엔지니어링 시간, GPU, 모니터링에 더 많은 비용을 지불하지만, 모델 동작과 로그를 소유하게 됩니다.

개발자들은 명확한 트레이드오프에 직면해 있습니다. Gemini 3 Flash를 선택하면 CUDA나 Kubernetes를 건드리지 않고도 코드 생성, 비디오 및 이미지 이해, 복잡한 에이전트 등 최전선의 멀티모달 기능에 즉시 접근할 수 있습니다. Nemotron 3를 선택하면 모델을 하드 포크하고, 독점적인 학습 데이터를 주입하며, 외부 공급업체가 은밀히 변경할 수 없는 동작을 고정할 수 있는 능력을 얻습니다.

다양한 비즈니스는 서로 다른 분야로 나뉘게 됩니다. Gemini 3 Flash를 선택할 가능성이 있는 기업은 다음과 같습니다: - 시장에 신속히 진입하는 SaaS 스타트업 - 변동성이 크고 예측할 수 없는 트래픽을 가진 소비자 앱 - 깊은 머신러닝(Machine Learning)이나 인프라 전문 지식이 없는 팀

네모트론 3를 선택할 가능성이 높은 대상: - 엄격한 규정 준수를 요구하는 은행, 병원 및 정부 기관 - 기존 NVIDIA GPU 클러스터를 보유한 기업 - 핵심 IP가 모델 자체인 기업

아무도 플랫폼 리스크에서 완전히 벗어날 수는 없습니다. Gemini 3 Flash는 당신을 구글의 로드맵과 가격에 묶어두고, Nemotron 3은 당신을 NVIDIA의 실리콘과 도구 스택에 연결합니다. OpenAI는 유사한 방식으로 움직이며, 개발자들을 자신만의 수직 통합 스택으로 유도하고 있습니다. 이는 GPT-5.2에서 Image 1.5까지의 내용을 포함합니다. 신규 ChatGPT 이미지가 출시되었습니다 - OpenAI에서 자세히 확인할 수 있습니다.

당신의 다음 기본 AI는 이미 선택되었습니다.

기본 AI는 더 이상 “돈으로 살 수 있는 가장 강력한 모델”을 의미하지 않습니다. 일상적인 작업의 90%—이메일 작성, 코드 작성, 문서 요약, 가벼운 데이터 분석—에 있어 이제 승자는 최고의 전반적인 가치처럼 보입니다: 낮은 지연 시간, 괜찮은 추론 능력, 그리고 청구서에서 거의 눈에 띄지 않거나 이미 지불하고 있는 구독 안에 숨겨져 있어서 전혀 보지 못하는 가격입니다.

구글의 제미니 3 플래시가 현재 그 자리를 차지하고 있습니다. 입력 토큰 100만 개에 약 0.50달러라는 가격과 SWE-bench Verified와 같은 벤치마크에서 프론티어 모델과 거의 몇 포인트 차이에 해당하는 성능 덕분에 플래시는 경쟁사들이 단순한 순위 경쟁이 아닌 가격과 속도로 겨루게 만듭니다. “빠른 계층” 모델이 어제의 최신 모델과 비슷하거나 이를 초과할 때, 업셀링은 훨씬 더 어려운 이야기가 됩니다.

배급은 그 이점을 확대합니다. 플래시는 현재 제미니 앱, 워크스페이스, 그리고 구글 검색 내에 통합되어 있어 “구글 제품 열기”가 “기본적으로 제미니 사용하기”로 바뀌게 되었습니다. 많은 사용자에게 있어서 GPT, 클로드, 제미니 사이의 선택은 Gmail에서 답장 버튼을 클릭하거나 문서에서 텍스트를 강조할 때 UI에 최초로 나타나는 어시스턴트로 조용히 축소됩니다.

모델 전문화는 생태계를 더욱 연합된 미래로 나아가게 합니다. 당신은 이미 다음과 같은 것들을 보고 있습니다: - 복잡한 코딩과 에이전트를 위한 고도의 추론 모델 - 디자인과 마케팅을 위한 ChatGPT 이미지 1.5와 같은 이미지 전문 모델 - 회의, 통화 및 클립에 최적화된 오디오 및 비디오 모델

오케스트레이션 계층은 사용자가 단일 봇과 대화하고 있다고 생각하더라도 이 메시를 통해 점점 더 많은 작업을 라우팅할 것입니다.

2025년에는 비용, 성능, 통제의 삼중고를 중심으로 상황이 정리될 것으로 기대됩니다. 개발자들은 Gemini 3 Flash와 같은 하이퍼스케일러 스택, Nemotron 3와 같은 오픈 웨이트 시스템, 또는 두 가지를 결합한 하이브리드 연합 중에서 선택할 것입니다. 여러분의 “기본 AI”는 단일 모델보다는 그 삼각형에서의 전략적 위치가 될 것입니다.

자주 묻는 질문들

제미니 3 플래시를 특별하게 만드는 요소는 무엇인가요?

제미니 3 플래시는 뛰어난 속도, 매우 낮은 비용, 그리고 특히 코딩 및 다중 모드 작업에서의 최첨단 성능을 결합한 제품입니다. 이 강력한 조합은 많은 고용량 응용 프로그램의 새로운 기본 모델로 자리잡게 만듭니다.

NVIDIA의 네모트론 3는 제미니 3 플래시의 경쟁자인가요?

각각 다른 요구를 충족합니다. 제미니는 성능과 사용 용이성을 최적화한 독점 API 기반 모델입니다. 네모트론 3는 모델과 데이터 스택을 미세 조정하고 제어하며 소유할 필요가 있는 개발자를 위한 오픈 웨이트 패밀리입니다.

페더레이티드 AI 모델이란 무엇인가요? 줌의 새로운 시스템과 같은 모델입니다.

연합 인공지능 시스템은 단일 모델에 의존하지 않습니다. 대신, 사용자의 요청을 다양한 제공자의 전문 모델 중에서 최적의 결과를 얻기 위해 가장 적합한 전문 모델로 지능적으로 라우팅합니다.

ChatGPT 이미지 1.5 업데이트는 왜 중요할까요?

이는 프롬프트 준수, 텍스트 렌더링 및 이미지 내 편집 기능을 극적으로 개선합니다. 이로 인해 Midjourney와 DALL-E 3와 같은 전문 고품질 이미지 생성기와의 직접적인 경쟁력이 훨씬 강화되었습니다.

Frequently Asked Questions

속도 대 주권 전쟁에서 누가 승리할까?
속도가 이제 주권과 정면 충돌하고 있습니다. 한쪽에는 약 0.50달러에 만 개의 입력 토큰당 비용이 들고, 78% SWE-벤치 인증 점수를 기록하여 GPT-5.2의 80%에 근접한 Gemini 3 Flash라는 독점 API가 있습니다. 반대편에는 다운로드하고, 미세 조정하며, 자신의 인프라에서 실행할 수 있는 공개 가중치를 제공하는 NVIDIA Nemotron 3가 있습니다.
제미니 3 플래시를 특별하게 만드는 요소는 무엇인가요?
제미니 3 플래시는 뛰어난 속도, 매우 낮은 비용, 그리고 특히 코딩 및 다중 모드 작업에서의 최첨단 성능을 결합한 제품입니다. 이 강력한 조합은 많은 고용량 응용 프로그램의 새로운 기본 모델로 자리잡게 만듭니다.
NVIDIA의 네모트론 3는 제미니 3 플래시의 경쟁자인가요?
각각 다른 요구를 충족합니다. 제미니는 성능과 사용 용이성을 최적화한 독점 API 기반 모델입니다. 네모트론 3는 모델과 데이터 스택을 미세 조정하고 제어하며 소유할 필요가 있는 개발자를 위한 오픈 웨이트 패밀리입니다.
ChatGPT 이미지 1.5 업데이트는 왜 중요할까요?
이는 프롬프트 준수, 텍스트 렌더링 및 이미지 내 편집 기능을 극적으로 개선합니다. 이로 인해 Midjourney와 DALL-E 3와 같은 전문 고품질 이미지 생성기와의 직접적인 경쟁력이 훨씬 강화되었습니다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts