AI의 2026 로드맵이 방금 유출되었습니다.

OpenAI, Glif, Vanta의 최고 전문가들이 에이전틱 AI와 기업 보안의 미래를 조명했습니다. 그들의 생생한 토론은 2026년 건설자들을 기다리고 있는 중요한 도전 과제와 엄청난 기회를 드러냅니다.

Stork.AI
Hero image for: AI의 2026 로드맵이 방금 유출되었습니다.
💡

TL;DR / Key Takeaways

OpenAI, Glif, Vanta의 최고 전문가들이 에이전틱 AI와 기업 보안의 미래를 조명했습니다. 그들의 생생한 토론은 2026년 건설자들을 기다리고 있는 중요한 도전 과제와 엄청난 기회를 드러냅니다.

새로운 AI 파워 패널: 왜 이 목소리들이 지금 중요한가

포워드 퓨처는 조용히 인터넷에서 가장 영향력 있는 AI 전쟁 방으로 변모했습니다. 호스트 매튜 버먼은 이제 YouTube, X, 그리고 그의 포워드 퓨처 뉴스레터를 통해 500,000명이 넘는 제작자와 의사 결정자들과 매일 소통하며 모델 출시, 칩 부족, 정책 싸움을 하나의 매우 실행 가능한 피드로 엮고 있습니다. 그의 포워드 퓨처 라이브 스트림은 YouTube 쇼보다는 AI에 자신의 경력을 걸고 있는 사람들을 위한 실시간 전략 브리핑처럼 기능합니다.

2025년 12월 12일 라인업은 2026년 AI 스택의 한 순간을 포착한 것 같습니다. OpenAI 연구원 테이잘 파트와르단은 여전히 다른 모든 사람이 따르는 기초 모델 층을 대표합니다. Glif의 공동 창립자 파비안 스텔처는 이러한 모델을 자율 워크플로우로 바꾸는 에이전트 층을 가져옵니다. 그 위에, Vanta의 크리스티나 카치오포와 제레미 이플링은 보안 및 규정 준수를 보완하며, 앰플리튜드의 CEO 겸 공동 창립자 스펜서 스케이츠가 제품 분석 및 사용자 행동 데이터를 통해 전체 구조를 완성합니다.

이 손님들은 GPU에서 비즈니스 KPI까지의 전체 경로를 포괄합니다. OpenAI는 능력과 제약을 정의합니다. Glif는 에이전트가 얼마나 멀리 나아갈 수 있는지를 실험하며, 그들이 고장나기 전에 또는 무언가를 잘못되게 하기 전에 실험합니다. Vanta는 이 모든 것이 SOC 2 감사나 은행의 리스크 위원회를 통과할 수 있는지를 질문하며, Amplitude는 고객들이 팀이 지속적으로 출시하는 AI 기능을 실제로 사용하는지를 추적합니다.

모든 것은 변동성이 큰 포스트-GPT-5.2 시점에 도달했습니다. 모델 성능이 다시 한 번 상승했지만 시장의 반응은 단순한 경외감에서 비용, 신뢰성 및 통제에 대한 어려운 질문으로 변화했습니다. 이제 벤처 캐피털리스트들은 "AI 전용" 거래를 15분 이내에 마무리하지만, 이들은 점점 더 실제 배포 사례를 요구하고 있습니다. 단순한 벤치마크 차트는 충분하지 않습니다.

한편, 기업들은 AI를 실험으로 취급하는 것을 중단했습니다. 포춘 500대 기업의 팀들은 이제 고객 지원, 내부 검색 및 분석에 GPT급 모델을 도입하고 있으며, 규제 당국은 이를 따라잡기 위해 분주하고 주 차원의 AI 법안은 법원에서 지체되고 있습니다. 범안의 패널은 바로 그 경계선에 위치해 있습니다: 모델을 구축하는 사람들, 귀하를 대신하여 행동하는 에이전트들, 규제 기관을 진정시켜주는 안전 장치들, 그리고 이러한 모든 것이 가치가 있었는지를 증명하는 대시보드들입니다.

글리프의 비전: 당신의 AI 에이전트 워크포스가 도착했습니다.

일러스트레이션: 글리프의 비전: 당신의 AI 에이전트 직원이 도착했습니다.
일러스트레이션: 글리프의 비전: 당신의 AI 에이전트 직원이 도착했습니다.

글리프 공동 창립자 파비안 스텔처는 에이전트에 대해 초기 웹 개척자들이 브라우저에 대해 이야기했던 것처럼 새로운 런타임으로 언급합니다. 단일 채팅봇 창이 아닌, 그는 API, 데이터 웨어하우스 및 SaaS 도구를 통해 조정되는 자율 에이전트의 무리를 상상하며, 작업을 생산 라인처럼 넘겨줍니다. 한 에이전트는 전략을 구상하고, 다른 에이전트는 분석을 추출하며, 세 번째는 공급업체나 클라우드 서비스와 협상하는 등 모든 작업이 인간 없이 흐름을 연결하여 이루어집니다.

그 변화는 AI를 "스마트 기능"에서 "업무의 조정자"로 이동시킵니다. Stelzer의 Glif는 에이전트를 조합 가능한 빌딩 블록으로 간주합니다. 이들은 사건을 감지하고, 행동을 유도하며, 다른 에이전트를 호출할 수 있는 작고 전문화된 프로세스들입니다. 단순히 모델에 지시하는 것이 아니라, 에이전트가 며칠 동안 맥락을 유지하고, 비즈니스 규칙을 기억하며, 신뢰도가 기준 이하로 떨어졌을 때만 에스컬레이션을 진행하는 시스템을 설계합니다.

개발자에게 이는 매튜 버만의 바이브 코딩 플레이북과 직접적으로 연결됩니다: 의도, 제약 조건 및 원하는 “바이브”를 설명한 다음, 에이전트가 연결을 처리하도록 합니다. 10개의 SDK를 수동으로 통합하는 대신, 개발자는 “이탈 위험 모니터링 및 유지 실험 시작”과 같은 목표를 정의하고, 에이전트 그래프가 호출할 API, 업데이트할 대시보드 및 슬랙에서 인간에게 알릴 시점을 파악합니다. 코딩은 더 이상 접착 코드를 작성하는 것이 아니라 가드레일을 지정하는 것과 관련이 깊어집니다.

기업들은 이를 뉴스를 넘어서 지렛대로 보고 있습니다. 10명 규모의 스타트업이 다음과 같은 에이전트들로 구성된 "AI 성장 팀"을 구성할 수 있습니다: - 경쟁사의 변화를 매일 스크래핑합니다. - A/B 테스트를 자동 생성합니다. - Amplitude 및 광고 플랫폼과 같은 도구에 업데이트를 푸시합니다.

각 에이전트는 24시간 연중무휴로 운영되며, 시간당 센트 비용이 들고, 모든 결정을 기록하여 준수 및 사후 검토를 위한 데이터를 남깁니다.

주요 플랫폼들이 이 레이어를 소유하기 위해 경쟁하고 있습니다. AWS 경영진은 이제 대리적 워크플로우에 대해 맞춤형 실리콘 및 벡터 데이터베이스와 같은 맥락에서 이야기하며, Bedrock과 Step Functions를 다중 에이전트 시스템의 기반으로 자리매김하고 있습니다. Microsoft, Google, OpenAI는 호스팅된 모델, 메모리 저장소, 이벤트 버스, 그리고 단순히 대화하는 것이 아닌 행동하는 에이전트를 위해 조정된 정책 엔진과 같은 유사한 스택으로 나아가고 있습니다.

에이전트 중심의 세상은 창작자와 기업에게 다르게 느껴진다. 제품 출시 시 “이 프로세스에 에이전트를 지정하세요”가 기본으로 포함되며, 연구, 아웃리치, 품질 보증, 재무가 포함된다. 로드맵은 “어떤 에이전트가 이 프로세스를 담당하나요?”로 시작하며, “어떤 팀이 스프린트를 여유롭게 진행할 수 있나요?”라는 질문이 아닌 것이다.

OpenAI의 다음 경계: 기초 모델을 넘어

OpenAI의 대시보드에서의 기업 AI 수요는 곡선보다는 벽처럼 보입니다. Tejal Patwardhan은 포춘 500 대 고객의 사용량이 분기마다 증가하고 있다고 설명하며, 팀들이 판매 운영, 고객 지원 및 내부 지식 시스템에 GPT 스타일 모델을 통합하고, 종종 CIO의 승인이 있기 전에 조용한 "섀도우 파일럿"을 통해 진행하고 있다고 전했습니다. OpenAI에게 이러한 패턴은 추상적인 연구를 구체적인 제품 요구 사항으로 전환합니다: 신뢰성, 지연 시간, 준수, 그리고 깊은 통합 연결 고리.

GPT-5.2 이후, OpenAI의 연구 의제는 단순히 더 큰 단일체가 아니라 자기 개선 시스템으로 기울어지는 것처럼 보입니다. 사용자 승인 데이터를 지속적으로 재훈련하고, 도구를 자동 생성하며, 전문 에이전트를 조정하는 모델 함대를 생각해 보세요. 이러한 변화는 모델, API, 그리고 메모리를 연결하는 에이전트 네트워크를 구축하고 있는 Glif의 파비안 스텔처가 추구하는 방향과 일치합니다. 그 미래의 일부를 맛보고 싶다면 Glif 공식 웹사이트를 살펴보세요.

파트와르단의 언급은 모델이 메타 최적화기로 작용하는 스택을 암시합니다: 그들은 코드를 작성하고, 실험을 설계하며, 결과를 평가하고, 최상의 결과를 새로운 버전으로 반영합니다. 자가 플레이는 게임 AI를 변화시켰고, OpenAI는 이제 연구, 기업 워크플로우, 심지어 제품 사용자 경험에서 자가 반복(Self-iteration)을 원합니다. 평가는 훈련 데이터만큼이나 전략적이 되며, 합성 벤치마크와 에이전트 기반 스트레스 테스트가 끊임없이 진행됩니다.

2028년까지 AI가 "가장 새로운 지식"을 생성하는 타임라인에 대한 의견이 나뉘었다. 낙관론자들은 모델이 자율적으로 가설을 제안하고, 시뮬레이션을 실행하며, 다중 모달 데이터를 탐색할 수 있게 되면, 재료 과학이나 약물 발견과 같은 좁은 분야에서 과학적 결과가 10배 증가할 수 있다고 주장한다. 회의론자들은 실험실 검증, 규제, 그리고 제도적 보수주의와 같은 병목 현상이 모델이 인간의 문헌 검토를 초월한 이후에도 영향을 제한할 것이라고 반박한다.

미래 고객들은 2-3년 내에 90% AI 생성 지식이 실현되는 것은 공격적이라고 생각하는 세 가지 제약 조건을 지적했습니다: - 하드웨어 및 에너지 한계 - 법적 및 안전 기준 - 인간의 신뢰 및 수용률

2026-2028 로드맵을 계획하는 기업들에게 OpenAI의 방향성은 어려운 선택을 강요합니다. 정적 기초 모델에만 의존하는 것은 경쟁업체들이 매주 워크플로를 재구성할 수 있는 자율적이고 자기 개선이 가능한 스택을 채택함에 따라 구식이 될 위험이 있습니다. 더 똑똑한 팀들은 OpenAI의 API와의 지속적인 통합, 자동 재학습을 예상하는 데이터 거버넌스, 그리고 “AI 운영”이 DevOps 및 보안과 나란히 위치하는 조직 구조를 위한 예산을 마련하고 있습니다.

반타의 경고: AI의 거대한 보안 맹점

신뢰는 어떤 모델이 자동완성을 할 수 있는 속도보다 빠르게 깨진다. 크리스티나 카치오포와 제레미 에플링은 이를 AI의 진정한 한계로 보고 있다. 그들이 반타에서 바라보는 바에 따르면, 기업들은 단순히 GPT급 시스템을 도입하는 것이 아니라, 보안 리뷰와 유사한 어떤 절차 없이 고객 데이터, 생산 코드 및 의사 결정에 조용히 연결하고 있다.

모델을 CRM, 소스 저장소 및 결제 시스템에 서둘러 연결하면 새로운 폭발 반경이 만들어집니다. Jira 티켓, Stripe 로그 및 Slack DM을 읽을 수 있는 "무해한" AI 어시스턴트는 하나의 API 키가 유출되거나 OAuth 토큰이 피싱당하는 순간 완벽한 측면 이동 도구가 됩니다.

전통적인 앱 보안 체크리스트는 AI 행동에 정확히 맞지 않습니다. 모델은 출력을 통해 데이터를 유출할 수 있으며, 학습 예시를 누출하고 "익명화"된 로그에서 민감한 속성을 추론할 수 있습니다. 프롬프트 주입, 데이터 오염, 그리고 탈옥 공격은 더 이상 가설이 아닙니다; 이들은 새로운 SQL 인젝션이며, 대부분의 보안 팀은 이에 대한 플레이북이나 모니터링을 갖추고 있지 않습니다.

카치오포와 에플링은 컴플라이언스 팀이 이중적 곤란에 직면해 있다고 주장합니다. 규제 기관은 공급업체가 완전히 설명할 수 없는 불투명한 시스템에 대한 통제를 요구합니다. 모델이 재무 추천을 허위 생성하거나 개인 건강 정보(PHI)를 잘못 전송할 때, 사건 보고서의 소유권은 기업, 모델 제공자, 아니면 모든 것을 통합하는 통합자 중 누구에게 있는 것일까요?

규제는 혼란을 더욱 증폭시킬 뿐입니다. 전국적인 AI 제품을 개발하는 기업들은 다음과 같은 복잡한 상황을 헤쳐 나가야 합니다: - 주 정부 차원의 AI 법안 - 건강, 금융, 교육 분야의 규제 - 새로운 연방 및 EU AI 프레임워크

차단되거나 정체된 주 법률은 마찰을 없애는 것이 아니라 불확실성을 초래합니다. 팀들은 기능 출시를 지연시키거나 조용히 지역 제한을 설정하는데, 이는 특정 AI 언더라이팅 도구나 채용 심사 도구가 6개월 후에 다시 활성화된 법령이나 새로운 FTC 해석을 위반할 수 있기 때문입니다.

Vanta의 프레임워크에서 보안은 후반부 체크리스트로 남아서는 안 됩니다. 신뢰준수를 일급 제품 요구 사항으로 다루는 것—데이터 최소화, 모든 AI 결정에 대한 감사 가능한 로그, 명확한 모델 출처—이 규제기관, 감사인 및 고객이 따라잡는 순간에도 계속해서 제품을 제공할 수 있는 유일한 방법이 됩니다.

2026년 AI 경쟁에서 승리하는 기업들은 단순히 더 빠른 에이전트나 더 강력한 GPU를 보유하는 것이 아닙니다. 그들은 AI 시스템을 포함한 SOC 2 보고서, 프롬프트와 출력에 대한 실시간 위험 평가, 그리고 데이터 유출이나 소환장을 견딜 수 있는 안전성에 관한 이야기를 갖추고 있을 것입니다.

데이터는 왕이다: 암플리튜드가 말하는 AI의 현실 세계에 미치는 영향

일러스트: 데이터가 왕이다: 앰플리튜드와 AI의 현실 세계에 미치는 영향
일러스트: 데이터가 왕이다: 앰플리튜드와 AI의 현실 세계에 미치는 영향

데이터, 감각이 아닌, AI가 실제로 작동하는지를 결정합니다. 이는 스펜서 스케이츠의 핵심 주장입니다: 클릭, 프롬프트 및 완료의 모든 과정을 제품 분석 스택인 앰플리튜드로 측정하지 않는다면, 단지 추측하고 있는 것입니다. DAU, 유지율 곡선 및 전환율 감소는 사용자가 어떤 AI 기능을 채택하고 무시하며 회피하는지를 드러냅니다.

스케이트는 기업들이 AI 사용을 단일한 'AI 참여'의 덩어리로 보기보다는 기능 수준에서 추적하도록 촉구합니다. 팀은 AI 글쓰기 도우미가 문서 완료율을 20% 높이는지, 또는 지원 코파일럿이 평균 처리 시간을 7분에서 3분으로 줄이는지 알아야 합니다. 이러한 행동 데이터를 없이는 경영진은 클라우드 청구서의 항목 하나만 보고, 사용자 행동이 변화했는지 알 수 없습니다.

AI의 ROI는 간단한 체인으로 구성되어 있다고 그는 주장합니다: 모델 호출 → 사용자 행동 → 비즈니스 결과. 이를 측정하기 위해 AI 이벤트를 다음과 같은 지표에 연결합니다: - 작업 완료율 - 가치 실현 시간 또는 해결 시간 - 전환, 확장 및 이탈

AI 검색 기능이 성공적인 쿼리를 55%에서 80%로 증가시키고 전환율을 5% 향상시킨다면, 이는 데모의 승리가 아닌 수익성 있는 ROI입니다.

데이터는 ChatGPT, Gemini, Claude 등 간의 마케팅 전쟁을 가르는 중요한 요소입니다. 스케이트의 세계는 어떤 모델이 합성 벤치마크에서 더 높은 점수를 얻는지보다는 어떤 모델이 더 많은 문서 발송, 더 많은 티켓 처리, 또는 활성 사용자당 더 많은 대시보드를 생성하는지에 더 관심이 있습니다. 동일한 UI 뒤에서 모델을 A/B 테스트할 때, 분석 결과 작업 성공과 사용자 유지 측면에서 분명한 승자가 드러납니다.

그 텔레메트리는 AI 플랫폼 경쟁의 실시간 점수가 됩니다. 하나의 LLM에서 다른 LLM으로 전환하는 것이 주간 활성 사용량을 10% 줄이거나 오류로 유발된 화난 클릭을 증가시킨다면, "더 저렴한" 모델이 당신에게 실제 비용을 초래했음을 알 수 있습니다. 경쟁 환경은 단순한 과대 홍보 경쟁이 아니라 데이터셋이 됩니다.

지속적인 반복은 이 측정 스택 위에 자리잡고 있습니다. 매주 AI 기능을 출시하는 팀은 사용자들이 어떻게 적응하는지를 보기 위해 코호트 차트와 경로 보고서를 살펴볼 수 있으며, 그에 따라 프롬프트, 가이드라인 및 사용자 경험을 다듬을 수 있습니다. Skates의 메시지는: AI에서 성공하는 기업은 단순히 모델을 미세 조정하는 것이 아니라, 데이터를 피드백 루프로 사용하여 행동을 조정할 것이라는 점입니다.

15분 VC 거래: AI는 버블에 있는가?

15분짜리 조건 시트가 AI 업계에서 조용히 새로운 기준이 되었습니다. 시드 및 시리즈 A 라운드가 단 한 번의 줌 콜과 공유된 노션 페이지를 통해 마감되고 있습니다. “세대에 한 번” 나올 기회를 노리는 투자자들은 부드러운 실사를 통해 서로를 제치며, 다음 OpenAI를 놓치는 것이 향후 10개의 투자 실패보다 더 큰 피해를 줄 것이라고 베팅하고 있습니다. 공동 창립자들은 차가운 소개가 점심 전에 서명된 SAFE로 이어지는 캘린더 스크린샷에 자랑을 늘어놓습니다.

하이퍼 가속화된 자본은 명백한 이점을 가지고 있습니다. Glif와 같은 팀은 엔지니어를 채용하고, GPU 시간을 구매하며, 전통적인 SaaS 스타트업보다 몇 달 빠르게 주도적인 기능을 출시할 수 있습니다. OpenAI의 Tejal Patwardhan은 파일럿에서 수백만 달러 규모의 계약으로 빠르게 전환하는 기업들을 설명하며, 이러한 속도가 합리적이지만 위험한 기본값이 될 수 있음을 시사합니다.

비용은 빠르게 쌓입니다. 크리스티나 카치오포와 제레미 에플링은 컴플라이언스, SOC 2, 그리고 데이터 거버넌스가 15분 만의 거래에 좀처럼 발맞추지 못하고, 보안이 설계 제약이 아닌 추가적인 조치로 남아 있다고 경고했습니다. 반타(Vanta)의 성장 자체가 많은 AI 기업들이 자금 지원의 달콤함이 지나간 후에 신뢰 계층이 필요하다는 것을 반영하고 있습니다. 더 많은 세부 정보는 반타 공식 웹사이트에서 확인하실 수 있습니다.

이 열광 뒤에는 잔인한 인프라 경쟁이 있습니다. 스타트업들은 NVIDIA H100 클러스터, 부족한 A100 임대 또는 Groq 스타일의 가속기에 신선한 자본을 소모하며, 종종 AWS, Azure 또는 Google Cloud와 다년간의 클라우드 최소 사용 계약을 체결합니다. GPU 할당 기회를 놓치면 전체 로드맵이 한 분기 미뤄집니다.

그 경쟁은 단순히 칩에 국한되지 않고 사람들까지 확장됩니다. 공동 창립자들은 2027년까지 10억 달러 이상의 가치를 가정한 50만 달러 이상의 총 보상과 주식으로 전 딥마인드 및 오픈AI 연구원들을 유치하고 있습니다. Amplitude의 스펜서 스케이츠는 데이터가 풍부한 기존 기업들이 초기 단계 팀의 인재와 인프라에 지출을 초과할 수 있으므로, 더 작은 플레이어들이 협소한 수직 시장으로 좁혀지거나 공격적인 M&A를 할 수 밖에 없다고 주장했습니다.

압축된 일정이 제품 전략을 왜곡합니다. 많은 AI 스타트업들이 신중한 분석을 통해 사용 사례를 검증하는 대신, 미흡한 코파일럿을 출시한 후, 유지율과 일일 활성 사용자 수가 급감하자 허둥지둥 합니다. 이사회는 모델 훈련, 평가 및 안전 검토가 같은 속도로 압축되지 않음에도 불구하고 6~9개월마다 "GPT-4 수준"의 혁신적인 변화를 기대합니다.

버블이든 아니든, 시장은 이미 공상 과학적인 결과를 반영하고 있습니다. 만약 이러한 돌파구가 지연된다면—칩이 부족하고, 규제 기관이 강화되거나, 사용자 수가 정체된다면—오늘의 15분 거래는 내일의 긴 불황으로 이어질 수 있습니다.

AI의 영혼을 위한 전투: 개방 대 폐쇄

열린 AI와 폐쇄된 AI의 대립은 더 이상 GitHub 문화 전쟁처럼 보이지 않는다; 그것은 대규모로 인지력을 누가 통제하는가에 대한 싸움이다. 한 쪽에는 OpenAI, Anthropic, 구글과 같은 중앙 집중식 스택이 위치하고 있으며, 이들은 최첨단 모델, 호스팅 및 안전 계층을 API 뒤에 결합하고 있다. 반면, 메타의 Llama 가족과 여러 작은 연구소들은 허가가 유연한 라이센스, 로컬 추론 및 실제로 만질 수 있는 모델 가중치를 밀고 나가고 있다.

폐쇄적 옹호자들은 엄격하게 통제된 시스템만이 조 단위 파라미터 모델, 수십억 달러에 달하는 훈련 과정, 그리고 규제 기관이 요구하는 안전 체계를 처리할 수 있다고 주장합니다. 오픈소스 지지자들은 재현성과 포크 가능성만이 집중된 AI 권력에 대한 진정한 견제 수단이라고 반박합니다. 그들은 Llama 3, Mistral, 그리고 오픈 DeepSeek 파생 상품을 예로 들어 품질이 더 이상 밀폐된 연구소에 독점되지 않는다는 것을 증명합니다.

지정학은 이제 모델 카드에 직결되고 있습니다. 미국의 스타트업들은 DeepSeek 같은 강력한 외국 모델을 "미국화"하는 것에 대해 점점 더 많은 이야기를 하고 있습니다: 중국 공산당과 관련된 데이터를 제거하거나 재훈련시키고, 미국의 법적 장치를 추가하며, 모든 것을 미국의 클라우드 제공업체를 통해 라우팅하는 것입니다. 워싱턴, 브뤼셀, 베이징은 모두 자신들의 법률, 언어 및 가치에 부합하는 최전선 AI를 원하고 있습니다.

이로 인해 이상한 역학이 형성됩니다: 중국이나 유럽에서 훈련된 개방형 모델들이 미국 기업에 의해 약간 조정된 후, “안전한” 기업 제품으로 재수출됩니다. 정책 강화자들은 이것이 여전히 국경을 넘는 능력 유출로 이어질까 걱정하고, 오픈 소스 옹호자들은 수학에 국경을 두려는 시도가 1990년대 강력한 암호화에서처럼 실패할 것이라고 주장합니다.

라이센스 전쟁 이면에는 더 깊은 철학적 분열이 존재합니다. 일부 연구소는 조용히 하나의 거대하고 강력한 초지능 엔진을 추구하고 있으며, 이는 마치 글로벌 유틸리티처럼 작동합니다: 하나의 모델, 여러 사용자. 반면 Glif와 같은 에이전트 중심 플랫폼을 포함한 다른 연구소들은 각 개인의 취향, 데이터, 리스크 수용도를 조정한 수십억 개의 작은 개인화된 에이전트를 상상하고 있습니다.

개발자들은 균열선에 앉아 있습니다. 폐쇄된 API는 즉각적인 규모, 가동 시간 SLA 및 Vanta가 감사를 수행할 수 있는 준수 체크리스트를 제공하지만, 팀을 가격, 콘텐츠 정책 및 불투명한 모델 업데이트에 고정시킵니다. 개방형 모델은 엔지니어가 버전을 고정하고, 독점 데이터에 대해 미세 조정하며, 로컬 또는 더 저렴한 GPU에서 실행할 수 있게 하지만, 그 대가로 더 많은 운영 작업과 보안 책임이 필요합니다.

AI 시대의 전력 분배는 이 선택을 따를 가능성이 큽니다. 만약 폐쇄된 플랫폼이 승리한다면, 소수의 미국 및 중국 기업들이 효율적으로 인지 유틸리티가 되어 사고를 임대하게 될 것입니다. 반면 공개 생태계가 계속해서 발전한다면 AI는 리눅스나 안드로이드와 더 비슷하게, 복잡하고 분산되어 있지만 궁극적으로 소수가 아닌 다수에 의해 통제되는 모습이 될 것입니다.

인류의 마지막 제안? 재정의된 일의 미래

일러스트: 인류의 마지막 제안? 재정의된 미래의 일자리
일러스트: 인류의 마지막 제안? 재정의된 미래의 일자리

인류의 마지막 프롬프트 엔지니어링 가이드는 생존 매뉴얼처럼 보이는 버먼의 설명처럼, cheat sheet라기보다 다음 십 년의 직무 설명처럼 읽힌다: 당신은 일을 하는 사람이 아니라, AI 에이전트의 군대에게 무엇을 해야 할지 지시하는 사람이 될 것이다. 프롬프트는 더 이상 간단한 요령이 아닌 관리 과학이 되어, 봇과 대화하는 것보다 제품 사양서나 법률 문서를 작성하는 것에 더 가깝게 된다.

이전에는 직선적으로 진행되던 워크플로우가 이제 에이전트 소환으로 분산되고 있습니다. 마케터는 더 이상 “캠페인을 만들지” 않습니다; 그들은 다음과 같은 에이전트 스택을 조율합니다: - 경쟁자 데이터 수집 - 복사 변형 생성 - Amplitude에서 A/B 테스트 자동 실행 - 광고 플랫폼에 자산 배포

그 세계에서는 직책이 조용히 변모합니다. "수석 분석가"는 10~50명의 에이전트를 감독하고 엣지 케이스를 점검하며 대시보드를 한 줄씩 만드는 대신 가드레일을 설정하는 AI 팀 리드처럼 보이기 시작합니다. 개발자들은 수동으로 보일러플레이트를 작성하는 것에서 API를 호출하고 로그를 모니터링하며 스스로 복구하는 에이전틱 시스템을 설계하는 것으로 전환합니다.

인터페이스는 더 이상 브라우저 탭에 국한되지 않습니다. 대화형 UI는 이미 슬랙, 노션, 피그마에 자리잡고 있으며, 2026년까지 버먼의 청중은 제미니 스타일의 스마트 안경, 메타의 리미트리스에서 영감을 받은 웨어러블 기기, 회의를 듣고 제안된 행동을 속삭이는 맥락 인식 이어폰과 같은 AI 네이티브 환경을 기대하고 있습니다. 당신의 “컴퓨터”는 당신의 일정, 코드베이스, 계약서를 알고 있는 지속적인 에이전트에 데이터를 공급하는 센서, 카메라, 마이크의 망으로 변모합니다.

이는 "생산성 소프트웨어"의 의미를 변화시킵니다. 사람들이 앱 대신 특정 분야의 AI 팀에 구독하는 것입니다: 장부를 정리하는 재무 포드, 리드를 우선순위에 따라 정리하는 영업 포드, Vanta 감사 준비를 하는 준수 포드. 인간의 작업은 비용과 정확성, 위험과 속도, 프라이버시와 개인화 간의 거래를 판단하는 것으로 이동합니다.

재앙적 서사—AI를 순수한 일자리 파괴자로 묘사하는 것—는 이러한 재배치를 간과합니다. 버먼의 게스트들은 AI를 새로운 생산성 카테고리를 창출하는 힘의 배가기로 반복적으로 표현합니다: 한 사람이 20명의 직원이 했던 백오피스를 운영하거나, 한 명의 공동창립자가 주말에 전체 시장 진입 머신을 구축하는 경우입니다. 어려운 부분은 AI를 위한 작업을 찾는 것이 아니라, 사람들이 갑작스럽게 가능해진 일을 관리할 수 있도록 신속하게 기술을 향상시키는 것입니다.

당신이 보지 못하는 인프라 전쟁

전문가들이 대화하는 것처럼, 실제로 AI를 운영하는 것은 프롬프트가 아니라 힘에 의해 결정된다. 모든 에이전트 데모와 GPT 업그레이드 뒤에는 소비자들이 자주 목격하지 못하는 치열한 인프라 경쟁이 존재한다. GPU, 데이터 센터, 그리고 광섬유 링크가 현재 실제 API 한계로 기능하고 있다.

미국 정책 입안자들은 마침내 반도체 생산 능력을 국가 안보로 간주하고 있습니다. CHIPS 및 과학 법안은 첨단 팹을 미국으로 되돌리기 위해 520억 달러 이상을 배정하며, TSMC, 인텔, 삼성은 애리조나, 오하이오, 텍사스에 공장을 건설하거나 확장하고 있습니다. 3nm 이하 생산을 통제하는 자가 다음 세대 모델이 훈련될 속도를 결정하게 됩니다.

그 변화는 미국 기반의 반도체 공장을 지정학적 choke point로 만들고 있습니다. 수출 통제가 이미 고급 NVIDIA H100 및 B200의 중국 수출을 제한하고 있어 글로벌 AI 생태계를 분열시키고 있습니다. 경쟁하는 진영들은 공급 차단의 잘못된 편에 앉지 않기 위해 자국의 디자인 인재, 리소그래피 도구 및 패키징 능력을 확보하기 위해 경쟁하고 있습니다.

실리콘만으로는 이 전쟁에서 승리할 수 없습니다; 사람들입니다. 최고 AI 연구자들과 인프라 엔지니어들은 현금과 주식으로 구성된 보상 패키지가 매년 100만에서 300만 달러를 넘는 경우가 흔합니다. OpenAI, Google DeepMind, Meta, 그리고 자금이 풍부한 스타트업들은 매 분기마다 조용히 서로 인재를 빼앗고 있으며, 단 한 번의 이탈이 전체 제품 로드맵에 큰 영향을 미칠 수 있습니다.

그 재능 격차는 팀들이 새로운 하드웨어를 얼마나 빠르게 활용할 수 있는지에서 나타납니다. 최첨단 모델을 훈련하려면 현재 수십만 개의 가속기, 10,000개 이상의 노드에서 무너지지 않는 오케스트레이션 소프트웨어, 그리고 활용 손실을 줄일 수 있는 엔지니어가 필요합니다. 이러한 전문 인력을 고용할 수 없는 기업은 그런 인력을 가진 곳으로부터 용량을 임대하게 됩니다.

Groq는 인프라 원주율에 대한 압박을 보여줍니다. 이 회사의 LPU 기반 추론 클러스터는 놀라운 토큰 처리량을 제공하지만, 에이전트 플랫폼과 기업 코파일럿으로부터의 수요는 이미 대기자 명단과 지역 용량 한계를 초과하게 만들고 있습니다. 단일 바이럴 앱이 하룻밤 사이에 사용량을 10-20배 증가시킬 수 있을 때, 자본이 충분한 공급자조차 랙, 전력 및 냉각 추가에 분주해집니다.

포워드 퓨처의 게스트들은 이것을 새로운 형태의 플랫폼 잠금 현상으로 설명합니다. 실제 제약이 어디에 있는지를 이해하고자 하는 개발자들은 칩, 전력, 대역폭 또는 인재를 면밀히 추적하게 되며, 종종 **매튜 버만의 포워드 퓨처**와 같은 허브에서 시작합니다.

2026년 행동 계획: 건설업체의 다음 단계

현재의 모멘텀은 단순히 AI 제품에 대해 이야기하는 사람들보다 실제로 제품을 출시할 수 있는 사람들에게 유리합니다. 앞으로 12–18개월 동안, 제작자들은 에이전트, 데이터 및 보안을 차별화된 제품 기능으로 간주해야 하며, 부차적인 고려사항으로 남겨두어서는 안 됩니다. 즉, “우리는 LLM을 추가했습니다”에서 “우리의 전체 워크플로우는 관찰 가능하고, 테스트 가능하며, 책임 있는 자율 에이전트에서 운영됩니다”로 이동해야 합니다.

대리적 워크플로우부터 시작하세요. Glif와 같은 도구는 연구, 실행, 품질 보증을 위한 전문화된 에이전트의 플릿을 오케스트레이션하는 단기 기본값을 보여줍니다. 개발자들은 판매 outreach, 지원 분류, 내부 운영과 같은 좁고 높은 ROI 흐름을 프로토타입한 후, 명확한 인수와 인간의 재개입이 가능한 방식으로 에이전트들을 연결해야 합니다.

기업의 수요는 OpenAI와 같은 플랫폼 주위에서 폭발적으로 증가하고 있지만, 기업은 데모가 아니라 신뢰성을 구매합니다. 개발자는 OpenAI, Anthropic, 그리고 오픈 모델 전반에 걸쳐 SLA, 감사 가능성, 공급업체 중복성을 고려하여 설계해야 합니다. 여기에는 명시적인 모델 전환 전략, 지연 예산, 그리고 비용 통제가 건축에 내재화되어야 하며, 조달 과정에서 추가되는 것이 아닙니다.

보안이 이제 대규모 배치의 주체를 결정합니다. 반타의 메시지는 직설적입니다: 거버넌스 없는 AI는 모니터링되지 않는 데이터 유출 엔진이 됩니다. 팀은 다음과 같은 조치를 취해야 합니다: - 모델에 접근하기 전 데이터 분류하기 - 민감한 시스템에 접촉하는 모든 프롬프트와 응답 기록하기 - 첫날부터 AI 사용을 SOC 2, ISO 27001 및 산업 규칙에 맞추기

데이터 전략은 장난감과 내구성 있는 기업을 구분합니다. 암플리튜드의 스펜서 스케이츠는 모든 AI 상호작용—프롬프트, 응답, 사용자 편집, 하류 행동—을 측정하는 것에 중점을 둡니다. 개발자들은 AI 기능을 일반적인 성장 실험처럼 다루어야 합니다. A/B 테스트를 통해 프롬프트를 실험하고, 유지율에 미치는 영향을 측정하며, 핵심 지표에 영향을 미치지 않는 것은 제거해야 합니다.

누구도 이 일을 고립되어 할 필요는 없습니다. 매튜 버먼의 Forward Future 생태계—뉴스레터, 도구 디렉토리, 그리고 커뮤니티—는 50만명 이상의 빌더들이 무엇이 효과적인지를 실시간으로 보여주는 지도 역할을 합니다. 이를 활용하여 스택을 벤치마킹하고, 에이전트 중심 도구를 발견하며, 변화하는 모범 사례를 추적하세요.

내년과 그 다음 반년은 AI 승자들의 영구적인 위계를 설정합니다. 하드웨어 구축, 모델 능력, 기업 계약이 모두 2026년까지 확고해집니다. AI 경제에 발을 들이려는 누구나 지금 이 순간에 에이전트를 출하시켜야 하고, 데이터를 확보하며, 실제 영향을 측정해야 합니다. 다음 자금 조달 주기가 아닌 지금이 중요합니다.

자주 묻는 질문

글리프는 무엇이며, 그 공동 창립자는 무엇에 대해 논의했나요?

Glif는 AI 에이전트를 만들고 사용하는 플랫폼입니다. 공동 창립자인 파비안 스텔처(Fabian Stelzer)는 단일 프롬프트 AI 도구에서 복잡하고 상호 연결된 에이전틱 워크플로우로의 전환에 대해 논의했으며, 이는 개발자와 기업을 위해 전체 프로세스를 자동화할 것입니다.

반타는 AI의 보안 위험에 어떻게 대응하고 있나요?

Vanta는 CEO이자 CPO가 대표로 있으며, AI 시스템의 신뢰성과 준수에 중점을 두고 있습니다. 그들은 기업들이 AI를 빠르게 채택함에 따라, 특히 변화하는 규정에 대응하기 위해 강력한 보안 프레임워크의 필요성이 시급하다고 강조했습니다.

OpenAI 연구자로부터의 주요 메시지는 무엇이었나요?

OpenAI 연구원 테잘 팟와르단은 기업 AI 채택의 급증에 대한 통찰을 제공한 것으로 보입니다. 논의는 GPT-5를 넘어서는 미래 모델 개발, 자가 개선 AI 및 AI 생성 지식에 대한 공격적인 일정으로 이어졌습니다.

데이터 분석이 AI의 미래에 중요한 이유는 무엇인가요?

Spenser Skates, Amplitude의 CEO는 데이터 분석이 실제 AI 사용자 반응과 ROI를 이해하는 데 필수적이라고 강조했습니다. 데이터는 회사들이 AI 기능의 실제 영향을 측정하는 데 도움을 주며, 향후 제품 개발을 안내합니다.

Frequently Asked Questions

15분 VC 거래: AI는 버블에 있는가?
15분짜리 조건 시트가 AI 업계에서 조용히 새로운 기준이 되었습니다. 시드 및 시리즈 A 라운드가 단 한 번의 줌 콜과 공유된 노션 페이지를 통해 마감되고 있습니다. “세대에 한 번” 나올 기회를 노리는 투자자들은 부드러운 실사를 통해 서로를 제치며, 다음 OpenAI를 놓치는 것이 향후 10개의 투자 실패보다 더 큰 피해를 줄 것이라고 베팅하고 있습니다. 공동 창립자들은 차가운 소개가 점심 전에 서명된 SAFE로 이어지는 캘린더 스크린샷에 자랑을 늘어놓습니다.
글리프는 무엇이며, 그 공동 창립자는 무엇에 대해 논의했나요?
Glif는 AI 에이전트를 만들고 사용하는 플랫폼입니다. 공동 창립자인 파비안 스텔처는 단일 프롬프트 AI 도구에서 복잡하고 상호 연결된 에이전틱 워크플로우로의 전환에 대해 논의했으며, 이는 개발자와 기업을 위해 전체 프로세스를 자동화할 것입니다.
반타는 AI의 보안 위험에 어떻게 대응하고 있나요?
Vanta는 CEO이자 CPO가 대표로 있으며, AI 시스템의 신뢰성과 준수에 중점을 두고 있습니다. 그들은 기업들이 AI를 빠르게 채택함에 따라, 특히 변화하는 규정에 대응하기 위해 강력한 보안 프레임워크의 필요성이 시급하다고 강조했습니다.
OpenAI 연구자로부터의 주요 메시지는 무엇이었나요?
OpenAI 연구원 테잘 팟와르단은 기업 AI 채택의 급증에 대한 통찰을 제공한 것으로 보입니다. 논의는 GPT-5를 넘어서는 미래 모델 개발, 자가 개선 AI 및 AI 생성 지식에 대한 공격적인 일정으로 이어졌습니다.
데이터 분석이 AI의 미래에 중요한 이유는 무엇인가요?
Spenser Skates, Amplitude의 CEO는 데이터 분석이 실제 AI 사용자 반응과 ROI를 이해하는 데 필수적이라고 강조했습니다. 데이터는 회사들이 AI 기능의 실제 영향을 측정하는 데 도움을 주며, 향후 제품 개발을 안내합니다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts