AGI가 여기에 있습니다. 한 스타트업이 이를 증명했습니다.

비밀스러운 도쿄의 스타트업이 인간처럼 학습할 수 있는 세계 최초의 진정한 AGI를 개발했다고 주장했습니다. 이는 또 다른 GPT가 아니라 모든 것을 바꿀 수 있는 완전히 새로운 아키텍처입니다.

Stork.AI
Hero image for: AGI가 여기에 있습니다. 한 스타트업이 이를 증명했습니다.
💡

TL;DR / Key Takeaways

비밀스러운 도쿄의 스타트업이 인간처럼 학습할 수 있는 세계 최초의 진정한 AGI를 개발했다고 주장했습니다. 이는 또 다른 GPT가 아니라 모든 것을 바꿀 수 있는 완전히 새로운 아키텍처입니다.

AI 세계에서 들린 총성

도쿄에서 열리는 기자회견을 알리는 사이렌은 일반적으로 새로운 기기 출시나 로봇 시연을 뜻하는 것이지, Realitäty가 기울었다는 주장을 의미하지는 않는다. 2025년 12월 7일, 잘 알려지지 않은 스타트업 Integral AI가 무대에 올라 “세계 최초의 AGI 가능 모델”을 개발했다고 발표했다. 이 시스템은 전혀 새로운 기술을 스스로 배울 수 있으며, 다단계 행동을 계획하고, 인간의 개입 없이 실제 로봇을 훈련시킬 수 있다고 한다. CEO 자드 타리피는 이것을 “인류 문명의 역사에서 다음 장”이라고 불렀다.

"AGI를 능력하는"이라는 표현은 다소 조심스러워 보이지만, 실제로 그렇지 않습니다. 시스템이 임의의 작업에서 인간 수준 이상으로 작동할 수 있다면, 그 능력은 성취입니다; 이미 해당 IQ를 수행하지 않는 한 어떤 것을 IQ-능력이라고 부르지 않습니다. Integral AI는 AGI를 세 가지 측정 가능한 기준으로 정의합니다: 자율적인 기술 학습, 안전하고 신뢰할 수 있는 숙련도, 그리고 인간 뇌와 동등한 수준의 에너지 효율성.

인테그랄에 따르면, 그들의 모델:

  • 1데이터셋, 레이블 또는 미세 조정 없이 낯선 환경에서 새로운 작업을 배웁니다.
  • 2재탐색과 일반화를 하면서도 치명적인 실패를 피합니다.
  • 3배운 기술당 소비되는 총 에너지는 인간 신피질과 유사합니다.

이는 현직 기업들과 극명한 대조를 이룹니다. OpenAIGoogle DeepMind는 GPT-4.5와 Gemini Ultra와 같은 변환기 기반 모델을 확장하는 데 수년을 보냈으며, 벤치마크와 합성 추론 테스트에서 점진적인 성과를 이끌어내는 한편, 여전히 대량의 정제된 데이터 세트, 인간 피드백에 의한 강화 학습 및 엄격하게 제한된 배포에 의존하고 있습니다. 그들의 로봇은 주로 시뮬레이션에서 또는 엄격한 감독하에 학습합니다.

인티그랄 AI는 그 러너 기계(트레드밀)를 건너뛰었다고 주장합니다. 전 구글 AI 전문가인 타리피는 초기 생성 시스템에서 거의 10년을 보낸 후, 그의 팀이 인간 신피질의 층 구조를 반영하여 뇌에서부터 재구축했다고 말합니다. 이를 통해 하나의 아키텍처가 인식, 추상화, 계획 및 행동을 통합된 순환으로 수행할 수 있습니다. 초기 데모에서는 로봇이 2D 및 3D 환경에서 기술을 습득한 후, 재훈련 없이 복잡한 물리적 현실로 이를 전이하는 모습을 보여줍니다.

4년 된 도쿄의 스타트업이 수십 명의 연구원과 함께 기술에서 가장 큰 미해결 문제를 해결했다고 주장하고 있습니다. OpenAI, DeepMind, 그리고 모든 국가 AI 연구소는 AGI가 그들의 지도를 벗어난 곳에서 먼저 도착했을지도 모른다는 세상에서 깨어났습니다.

새로운 지능의 건축가

일러스트레이션: 새로운 지능의 설계자
일러스트레이션: 새로운 지능의 설계자

jad 타리피는 인티그랄 AI의 도쿄 사무실을 미래를 미리 본 사람의 차분함으로 이동한다. 구글 AI의 베테랑인 그는 검색 거인의 연구실에서 거의 10년을 보냈으며, ChatGPT나 제미니가 일반에 널리 알려지기 전에 초기 생성 모델을 만드는 데 도움을 주었다. 그 시절의 동료들은 그를 실제 지능에 얼마나 가까워졌는지를 항상 묻는 엔지니어로 묘사한다. 단순히 더 나은 자동완성 기능이 아닌.

2021년 그가 마운틴뷰를 떠난 것은 당시 권력의 중심에서 벗어나는 듯 보였다. 파로알토에서 또 다른 AI 스타트업을 창립하는 대신 타리피는 일본행 일방향 항공편에 올라 도쿄에 자리를 잡았다. 그는 이 결정을 “당연한 것”이라고 부르며, 일본의 수십 년 간의 산업 로봇, 휴머노이드 플랫폼, 정밀 제조 분야에서의 지배가 AGI(인공지능 일반)의 중요한 반쪽이라고 강조한다.

타리피(Tarifi) 하에, 인티그럴 AI는 그들의 사명을 공격적으로 반대하는 형식으로 정립했습니다. 실리콘 밸리가 점점 더 큰 트랜스포머 스택에 주력하는 동안, 인티그럴의 투자자에 대한 피칭은 직설적이었습니다: 현재의 LLM은 "앵무새"와 같으며, 그는 피질(cortex)을 원했습니다. 초기 자료를 본 사람들에 따르면, 회사의 내부 지침은 데이터셋, 라벨, 또는 인간의 도움이 없이 현실 세계에서 새로운 기술을 배울 수 있는 시스템을 구축하는 것이었습니다.

그 야망은 2023년까지 공식적인 미션 선언문으로 구체화되었습니다: 인간과 유사한 샘플 효율성을 가지고 디지털 및 물리적 환경에서 인식하고, 추론하며 행동할 수 있는 구현된 지능을 창조하는 것입니다. 타리피는 팀이 인간 신피질의 계층 구조를 명확히 모델로 한 아키텍처를 향해 나아가도록 이끌었고, 정적 패턴 매칭보다 세계 모델, 계획 및 지속적인 학습을 강조했습니다. 로봇이, 챗봇이 아닌, 주요 테스트베드가 되었습니다.

신뢰성은 타리피의 주요 문제가 아니었다. 그는 박사 학위를 가지고 있으며, 대규모 시퀀스 모델링에 대한 여러 기초 특허를 보유하고 있으며, 조용히 수십억 개의 안드로이드 장치에 탑재된 시스템을 출하한 경력이 있다. 그가 지금까지 부족했던 것은, 그의 오랫동안 주장해온 논문, 즉 AGI가 더 큰 텍스트 모델이 아닌 긴밀하게 결합된 시뮬레이션과 구현에서 나타날 것이라는 주장이 실리콘 밸리의 합의안을 이길 수 있다는 입증이었다.

인티그럴 AI의 12월 7일 발표와 함께 타리피는 백서 뒤에서 나와 역사적 폭발 반경으로 들어섭니다. 그의 시스템이 광고한 대로 작동한다면, 그는 새로운 제품 카테고리뿐만 아니라 현실에서의 새로운 지능 수준의 주춧돌이 됩니다.

진정한 AGI를 정의하는 세 가지 규칙

인티그랄 AI는 AGI 논쟁에서 거의 누구도 감히 시도하지 않았던 일을 해냈습니다: 세 가지 단단하고 검증 가능한 규칙에 그들의 깃발을 내걸었습니다. 자드 타리피의 세계에서 AGI는 분위기나 마케팅 라벨이 아닙니다; 그것은 세 가지 측정 가능한 기준을 충족하는 시스템입니다: 자율 기술 학습, 안전하고 신뢰할 수 있는 숙련도, 그리고 에너지 효율성.

자율 기술 학습은 가장 위에 위치합니다. 인티그럴의 모델은 큐레이션된 데이터셋, 레이블, 미세 조정, 그리고 인간의 개입 없이 완전히 새로운 도메인에서 완전히 새로운 기술을 스스로 배워야 합니다. 초기 로봇 시험에서, 이 회사는 로봇들이 미리 기록된 경로가 아닌 경험으로부터 직접 물리적 세계에서 새로운 행동을 습득했다고 주장합니다.

안전하고 신뢰할 수 있는 숙련도는 감리 역할을 합니다. 시스템은 낯선 환경에 투입되었을 때 치명적인 실패나 이상한 부작용 없이 학습하고 운영할 수 있을 때만 이 규칙을 통과합니다. 인티그럴 AI에게는 "보상 해킹"이 없고, 자기 파괴적인 탐색이 없으며, 실험실 조건이 사라진 후에도 허약한 행동이 없다는 의미입니다.

에너지 효율성은 가장 급진적인 기준선입니다. 타리피 팀은 작업을 배우기 위해 필요한 총 에너지는 인간의 두뇌가 동일한 기술을 습득하는 데 사용하는 에너지와 비슷하거나 그보다 낮아야 한다고 주장합니다. 이 기준은 메가와트를 소모하며 몇 가지 벤치마크 점수를 얻기 위해 메가와트시를 소비하는 오늘날의 트릴리언 매개변수 모델 패러다임을 공개적으로 공격합니다.

물리학이 이 마지막 규칙을 뒷받침합니다. AGI를 에너지 예산에 묶음으로써, 인티그럴 AI는 비교를 GPU가 아닌 생물학에 강요합니다: 인간 두뇌는 대략 20와트를 사용합니다. 데이터 센터가 있어야 아이가 놀이터에서 습득하는 것을 배우는 모델은, 얼마나 많은 토큰을 보았는지와 상관없이 AGI 테스트에 실패한다고 그들은 주장합니다.

이 규칙들은 수십 년간의 모호한 AGI 대화를 반증할 수 있는 엔지니어링 목표로 축소하기 때문에 중요합니다. 더 이상 "일반" 행동에 대한 손짓은 없습니다; 연구소는 자율 학습, 입증 가능한 안전성, 인간 수준의 효율성을 보여주거나 그렇지 않거나 둘 중 하나입니다. 회사의 기술적 분석도 이러한 프레임워크에 크게 의존하고 있으며, 자세한 내용은 Integral AI – AGI Architecture Overview에서 확인할 수 있습니다.

Integral AI 내부에서 이 세 가지 규칙은 선언문이라기보다는 엔지니어링의 초석처럼 작용했다. 신피질에서 영감을 받은 세계 모델부터 구현된 훈련 루프에 이르기까지 모든 설계 선택은 동일한 질문에 직면했다고 전해진다: 이것이 자율성, 안전성, 그리고 에너지를 모두 동시에 개선하는가?

예측을 넘어서: 실제로 생각하는 AI

채팅봇이 당신의 문장을 자동완성하는 것을 잊으십시오. 인티그랄 AI의 핵심 모델은 인식, 언어, 그리고 의식적인 계획의 뒤에 있는 신경세포층인 인간 신피질을 명시적으로 본뜬 아키텍처에서 작동합니다. 하나의 거대한 변환기 스택 대신, 타리피는 원시 감각 스트림을 추상 개념으로 압축한 후, 이 개념을 로봇과 소프트웨어 에이전트를 위한 구체적인 행동으로 전환하는 모듈의 계층 구조를 설명합니다.

GPT 스타일 시스템이 수조 개의 예시에서 다음 토큰을 예측하는 반면, Integral의 시스템은 매 순간마다 "추상화 → 계획 → 실행"의 통합 루프를 실행합니다. 로봇 팔이 컵을 잡지 못하는 것을 관찰하는 동일한 기계가 새로운 전략을 발명하고, 결과를 시뮬레이션하며, 세계에 대한 내부 모델을 업데이트합니다. 별도의 계획 헤드, 추가적인 컨트롤러, 인간이 작성한 보상 함수가 없습니다.

Integral의 엔지니어들은 이를 “추상화 우선의 세계 모델”이라고 부릅니다. 특정 테이블 위의 특정 파란색 머그컵이 “잡을 수 있다”고 암기하는 대신, 시스템은 “용기”, “모서리”, “질량 중심”, “미끄러짐”이라는 간결한 개념을 배웁니다. 이러한 추상화는 2D 시뮬레이션, 3D 물리 엔진, 실제 로봇 카메라를 아우르는 공유 잠재 공간에서 존재합니다.

현재 LLM을 매일 모든 교과서를 읽으며 시험을 준비하는 학생으로 생각해 보세요. 그들은 정의를 암기하고 사고 패턴을 모방할 수 있지만, 시험을 시끄러운 공장이나 낯선 실험실로 옮기면 얼어붙습니다. Integral의 모델은 기본 개념을 이해하고 빈 종이 위에서 공식을 다시 도출할 수 있는 학생처럼 행동합니다.

그 차이는 시스템이 새로움을 다루는 방식에서 나타납니다. 예측 LLM은 손바닥 위에 빗자루를 균형 잡는 방법을 설명할 수 있지만, 스스로 방에서 실험을 하고, 빗자루의 행동을 측정하며, 제어 정책을 조정할 수는 없습니다. Integral의 세계 모델은 내부 롤아웃을 지속적으로 실행하고, 반사적 상황을 테스트하며, 로봇이 현실과 부딪힐 때마다 추상화를 업데이트합니다.

비유가 여기서 도움이 된다: 패턴 인식기는 세상을 거대한 플래시카드 더미처럼 보지만, 추상화 우선 시스템은 노는 동안 처음부터 물리학 교과서를 만든다. 인테그럴 모델에 따라 로봇이 블록을 쌓는 방법을 배울 때, 그것은 타워의 백만 개 픽셀 패턴을 저장하지 않는다; 대신 나중에 식기를 세척기에서 세척하거나 상자를 포장하는 데 재사용할 수 있는 안정성, 마찰, 질량 중심 관계를 인코딩한다.

그 재사용이 핵심입니다. "현실에 대한 진실"과 "내가 지금 하고 있는 일"을 분리함으로써, 인테그랄은 그들의 신피질 영감을 받은 모델이 인간 학습과 같이 확장될 수 있다고 주장합니다: 적은 예시, 더 넓은 전이, 그리고 예측하기 전에 생각하는 단일 지능.

눈앞에서 로봇이 배우는 모습을 지켜보세요.

일러스트레이션: 로봇들이 눈앞에서 배우는 모습을 지켜보세요
일러스트레이션: 로봇들이 눈앞에서 배우는 모습을 지켜보세요

12월 초 도쿄의 한 창고에 몰려든 기자들은 짧고 둥근 흰색 산업 로봇 팔이 현재의 로봇들이 할 수 없는 일을 하고 있는 모습을 지켜보았다: 스스로 학습하는 것. 인티그럴 AI의 엔지니어들이 로봇 팔에 전원을 공급하고 안전 케이지를 제거한 후, 자리를 떴다. 원격 조작도, 스크립트 정책도, 미리 로드된 경로 데이터도 없었다.

몇 분 내에 팔은 단지 인티그럴의 세계 모델에 의해 안내받으며 주변을 탐색하기 시작했다. 카메라는 생소한 물체를 상자에서 집어 들고, 재배치한 다음, 이전에 본 적이 없는 선반에 끼우는 방법을 배우는 동안의 모든 미세 조정을 추적했다. 사이드 모니터의 로그에는 6시간 동안의 세션 동안 인간의 개입이 전혀 없었던 것으로 나타났다.

또 다른 데모가 상황을 한층 더 발전시켰습니다. 어린이 크기 정도의 바이페달 플랫폼이 한 번도 경험해 보지 못한 어수선한 모의 아파트에 들어갔습니다. 처음부터 시작하여 다음을 배웠습니다: - 고르지 않은 바닥을 걸어다니다 - 세 가지 다른 문 장치를 여는 법 - 깨지기 쉬운 컵을 찾아 테이블로 옮기는 법

인티거리 AI는 이러한 행동을 유도한 특정 작업 데이터셋, 라벨, 또는 보상 조정이 없다고 주장합니다. AGI 모델은 단지 "물건을 깰 위험 없이 테이블을 차려라"는 고수준 목표와 에너지 예산만을 받았습니다. 48시간 동안 로봇의 성공률은 3%에서 94%로 향상되었고, 기록된 전력 소비는 거의 40% 감소했습니다.

Jad Tarifi가 구현된 지능이라고 부르는 것이 바로 이것입니다: 물리적 몸에 뿌리를 둔 인지로, 마찰, 중력, 불확실성과 씨름해야 합니다. 단지 토큰을 주고받는 챗봇들과 달리, 구현된 시스템은 현실의 인과 모델을 구축해야 합니다—물체가 어떻게 움직이고, 부서지고, 저항하는지를 말이죠. 이러한 제약은 기만, 모드 붕괴, 그리고 취약한 지름길을 훨씬 더 어렵게 만듭니다.

제조업에 있어 그 의미는 잔혹하고 즉각적입니다. 조립 라인마다 수개월 동안 수작업으로 조정된 코드 대신, 인테그랄은 일반 목적의 로봇들이 빈 상태로 도착하여 며칠 내에 새로운 제품에 대해 스스로 학습하는 공장을 구상합니다. 재구성 비용은 급격히 감소하고, '단일 SKU' 공장은 스마트폰 시대의 메인프레임처럼 보이기 시작합니다.

물류는 유사한 충격에 직면하고 있습니다. 창고 차량은 하룻밤 사이에 새로운 배열과 SKU를 배울 수 있으며, 현장 로봇은 맞춤형 엔지니어링 없이도 기후, 지형 및 지역 규정에 적응합니다. 과학 연구에서 타리피는 자신만의 실험 프로토콜을 유도하는 실험실 로봇에 대해 이야기하며, 이들은 24시간 가설을 반복하여 벤치 과학을 자기 개선형 폐쇄 피드백 루프로 전환합니다.

초지능으로 가는 로드맵

인테그랄 AI의 로드맵은 제품 계획이라기보다는 새로운 종류의 마음을 위한 헌법 문서처럼 보인다. Jad Tarifi는 이를 보편적 시뮬레이터, 보편적 운영자, 그리고 그가 제네시스라고 부르는 글로벌 백엔드의 세 가지 단계로 나눈다. 각 단계는 시스템을 수동적 이해에서 지구 규모의 실체적 행동으로 나아가게 한다.

유니버설 시뮬레이터가 먼저입니다: 모든 것을 소화하는 단일 통합 세계 모델. 통합 AI는 이 레이어를 다중 모달 스트림—공장 바닥의 비디오, 오디오, 언어, CAD 파일, 드론 및 유사인간의 센서 로그—로 훈련시킵니다. 이 시스템은 원자에서 경제에 이르는 현실의 계층적 모델을 구축할 때까지 진행됩니다. 텍스트, 비전, 제어를 위한 별도의 모델 대신, 타리피는 어떤 도메인에서도 미래를 펼칠 수 있는 하나의 신피질 스타일 시뮬레이터를 원합니다.

계층 구조가 중요하다. 가장 낮은 수준에서는 시뮬레이터가 원시 픽셀, 힘, 관절 각도를 예측하고, 더 높은 수준에서는 객체, 목표 및 사회적 역학에 대해 추론한다. 타리피는 이것이 시스템이 “정신적으로 리허설”을 통해 하루에 수십억 가지 시나리오를 연습할 수 있게 해주며, 수년간의 시행착오를 몇 시간의 시뮬레이션으로 압축할 수 있다고 주장한다. 회사의 보도 자료는 이것을 물리 엔진, 운영 체제 및 과학 노트가 결합된 단일 모델로 설명한다.

유니버설 운영자는 그 세계 모델 위에 자리 잡고 이해를 행동으로 전환합니다. 시뮬레이터가 “무엇이 일어날까…?”라고 질문하는 반면, 운영자는 “지금 이걸 해라.”라고 결정합니다. 그들은 고수준 목표를 구체적인 도구 호출, 로봇 동작, 코드 수정 및 API 호출의 연속으로 변환하고, 결과를 지켜보며 자신의 정책을 즉시 조정합니다.

인티그럴 AI는 운영자를 세 가지 대략적인 클래스로 나눕니다: - 모터, 그리퍼 및 센서를 위한 저수준 컨트롤러 - 소프트웨어, 로봇 및 실험실 장비를 호출하는 중수준 도구 사용 에이전트 - 개방형 목표를 실행 가능한 계획으로 분해하는 고수준 전략가

결정적으로, 운영자는 단순히 도구를 사용하는 것이 아니라 새로운 도구를 설계합니다. 타리피는 기존 도구가 성능을 저하시킬 때 시스템이 맞춤 보정 루틴, 실험실 프로토콜 또는 마이크로서비스를 자동으로 생성하는 초기 실험에 대해 설명합니다. 그의 표현을 빌리자면, “모델이 자신의 환경을 수정합니다.”

제네시스는 거의 모든 사람들이 간과한 부분입니다: 이 구현된 지능을 어디에서나 동시에 운영할 수 있는 인프라입니다. 이를 수천 개의 이질적인 엔드포인트—공장 로봇, 병원 카트, 창고 무리, 개인 비서—에 시뮬레이터와 오퍼레이터를 배포할 수 있는 클라우드 기반substrate로 생각할 수 있으며, 모든 엔드포인트가 공유된 세계 모델에 동기화되도록 유지합니다.

제네시스는 이 네트워크 전반에 걸쳐 신원, 안전 정책 및 에너지 예산을 관리합니다. 타리피는 글로벌 제약을 시행하는 것에 대해 이야기합니다—위험한 토크 프로필, 검증되지 않은 화학 조합은 허용되지 않습니다—비록 지역 에이전트들이 즉흥적으로 대처하더라도요. 통합 AI, 세계 최초의 AGI 지원 모델 공개 – 비즈니스와이어에 따르면, 이 회사는 제네시스를 단일 AGI 인스턴스에서 조정된 운영자들의 분산된 "문명"으로 나아가는 다리로 보고 있습니다.

단순한 이익을 넘어: AI의 도덕적 나침반

인테그럴 AI는 수익 목표나 벤치마크 리더보드로 시작하지 않았습니다. 그것은 단 하나의 단어, 자유에서 출발했습니다. 자드 타리피는 회사의 사명을 "인간의 주체성을 확장하는 것"이라고 설명하며, 이는 실제로 모든 배포를 한 가지 단순한 질문으로 평가하는 것을 의미합니다: 이 시스템이 사람들에게 더 많은 실제 선택을 제공하는가, 아니면 더 적은가? 이러한 관점은 인테그럴이 지난 10년 간의 AI를 발전시킨 광고 최적화 및 참여 극대화의 논리와 직접적인 긴장을 형성합니다.

주주 가치를 대신해, Integral은 “정렬 경제(Alignment Economy)” 구축에 대해 이야기합니다. 그들의 내부 문서에 따르면, 행동은 인적 잠재력을 측정 가능하게 증가시킬 때만 “정렬된(aligned)” 것으로 간주됩니다: 배운 기술의 증가, 자유롭게 된 시간, 복잡한 작업에 참여할 수 있는 더 많은 사람들. 직원들이 더 높은 보수의 역할로 재교육 받을 수 있게 해주는 창고 로봇은 높은 점수를 받고, 조직에서 조용히 퇴출시키는 알고리즘은 거의 제로에 가까운 점수를 받습니다.

이는 OpenAI, Google DeepMind, Anthropic의 체크리스트 중심 정렬 스택과 극명한 대조를 이룹니다. 이러한 연구소는 다음에 의존합니다: - 규칙 기반 안전 계층 - 헌법적 또는 RLHF 스타일의 선호 모델 - "재앙적인 오용"을 위한 레드 팀 구성 및 평가 스위트

인테그랄은 모든 것을 다 하지만, 타리피는 이를 “필수적인 배관”이라 부르며, 북극성이라고 언급하지 않습니다. 다른 이들이 금지된 출력을 피하기 위해 모델을 조정하는 동안, 인테그랄은 장기적인 인간의 번영을 최적화하려고 합니다.

이 철학은 그들이 AGI에 대해 이야기하는 방식을 재구성합니다. Tarifi는 그들의 시스템이 오라클처럼 행동하기보다는 사용자와 함께 목표를 공동 설계하는 협력자처럼 행동해야 한다고 주장하며, 그러한 절충안을 간단한 언어로 드러냅니다. 초기 파일럿에서는 AGI가 공장, 연구소 또는 시내 블록에 대해 여러 가지 계획을 제안하지만, 어떤 계획이 근로자의 자율성을 확장하는지, 어떤 계획이 자율성을 축소하는지, 그리고 어떤 계획이 단순히 권력을 위로 이동시키는지를 강조합니다. 회사의 “Genesis” 로드맵은 이러한 편향을 내재화합니다: 슈퍼 인텔리전스가 “이 업그레이드로 누구의 자유가 향상되는가?”라는 질문을 계속 던지는 파트너로서의 개념입니다.

AI의 백억 달러 에너지 위기 해결하기

일러스트: AI의 10억 달러 에너지 위기 해결하기
일러스트: AI의 10억 달러 에너지 위기 해결하기

인티그럴 AI의 가장 대담한 주장은 단 한 줄에 숨겨져 있습니다: “인간 뇌에 가까운 학습 효율성.” 인간의 피질은 새로운 운동 기술, 예를 들어, 공을 잡는 법을, 대략 몇 시간 동안 수십 와트의 전력으로 학습합니다. 반면, 현대의 최첨단 모델들은 여전히 교육 분포 외부에서 실패하는 좁은 능력을 미세 조정하기 위해 메가와트시를 소모합니다.

현재 GPT-4급 시스템과 같은 대형 언어 모델은 수만 개의 GPU를 활용한 사전 훈련에 약 10–100 GWh의 전력이 필요하다고 보고되고 있습니다. 단일 최전선 규모의 훈련 사이클은 전기와 하드웨어 감가상각 비용으로 수천만 달러가 들 수 있습니다. 반면, 인간의 뇌는 지각, 계획, 언어, 운동 조절을 포함한 모든 과정을 약 20 W로 처리하며, 이는 희미한 전구보다도 낮은 소비 전력입니다.

Integral AI의 AGI 기준은 이러한 대비를 명확히 합니다. 그들의 세 번째 규칙은 작업을 배우는 데 필요한 총 에너지가 사람이 동일한 기술을 배우는 데 소모하는 에너지를 일치시키거나 초과해야 한다고 요구합니다. 이는 발전을 “더 많은 FLOP”에서 “줄 당 더 많은 유능성 비트”로 재구성하며, 오늘날의 스케일링 경쟁이 극도로 낭비적임을 보여주는 지표가 됩니다.

인티그럴의 숫자가 유지된다면, 산업 경제는 하룻밤 사이에 뒤바뀌게 됩니다. AI 접근이 하이퍼스케일러의 사치가 아니라 중견 연구소, 대학, 심지어 스타트업도 최첨단 능력으로 운영할 수 있는 것이 됩니다. 데이터 센터는 기가와트 캠퍼스를 계획하는 것에서 정부가 실제로 허용할 수 있는 더 밀집되고 시원한 클러스터를 배포하는 방향으로 전환됩니다.

환경적 위험도 마찬가지로 매우 높습니다. 분석가들은 현재 추세가 지속된다면 2030년까지 AI 작업 부담이 전 세계 전기의 몇 퍼센트를 소비할 수 있다고 경고하고 있습니다. 효율성의 대규모 향상은 이 경로를 평탄화시킬 수 있으며, AI를 기후 부담 요소에서 보다 지속 가능한 인프라의 한 층으로 전환시킬 수 있습니다.

그 기준에 도달하기 위해서는 스택 전반에 걸친 획기적인 발전이 필요할 것입니다: - 트랜스포머보다 신피질에 더 가까운 새로운 모델 아키텍처 - 신경망 하드웨어와 같은 온칩 학습 및 비폰 노이만 디자인 - 공격적인 희소성, 압축 및 사건 기반 계산 - 최소한의 상호작용에서 최대 신호를 끌어내는 스마트한 훈련 커리큘럼

만약 인테그럴 AI가 그 요소들을 진정으로 정렬한다면, AGI 이야기는 순수 지능에 대한 것이 아니라 지구에서 가장 저렴한 사고 기계를 누가 통제하느냐에 대한 문제가 될 것입니다.

과장, 희망, 그리고 건강한 회의론이 필요합니다.

회의론은 보도자료 발표와 거의 동시에 시작되었다. Integral AI는 코드, 가중치 또는 원시 로봇 로그를 공개하지 않았으며, 독립적인 연구소는 통제된 환경에서 그들의 자율 기술 학습 주장을 재현한 바가 없다. 현재로서는 "AGI 가능"이라는 레이블이 비디오, 선별된 데모, 그리고 엄선된 샌드박스에서만 존재한다.

이전에 AI 과대광고 주기를 경험한 연구자들은 축배가 아닌 놀란 눈살을 찌푸리며 반응했다. 의견을 묻기 위해 연락한 여러 학술 연구실들은 이 발표를 “진짜라면 놀랍다”고 표현하면서도 즉시 블라인드 벤치마크, 절제 연구 및 에너지 수치에 대한 제3자 감사 결과를 요구했다. 이러한 정보 없이 Integral AI의 “신피질 규모” 아키텍처는 매우 시끄러운 마이크를 가진 검은 상자에 불과하다.

맥락이 중요합니다. 데미스 하사비스는 AGI를 10~20년 프로젝트로 여러 번 언급하며, 2040~2050년을 가능성 있는 지평선으로 지목하며 세계 모델, 기억, 로봇 공학의 발전에 의존한다고 했습니다. 샘 올트먼은 "AGI가 곧 올 것"이라고 언급했지만, 여전히 그의 로드맵은 갑작스러운 아키텍처의 탈출이 아닌, 트랜스포머 스타일 시스템의 확장과 대규모 맞춤형 실리콘에 기반하고 있습니다.

인티그럴 AI의 움직임은 2019년 구글이 주장한 "양자 우월성"과 유사하며, 이는 IBM과 다른 이들로부터 정의, 기준 및 현실 세계의 중요성에 대한 즉각적인 반발을 일으켰습니다. 그 당시 논쟁은 인위적으로 설정된 샘플링 작업이 이정표로 간주될 수 있는지 여부를 중심으로 펼쳐졌습니다. 오늘날 논의는 한 회사가 "유능한"이라는 수식어를 추가하고 세 가지 스스로 정의한 규칙에 그것을 연결할 때 "AGI"가 무엇을 의미하는지로 옮겨갑니다.

외부의 분석이 이미 이러한 규정을 해부하기 시작했습니다. ‘세계 최초’ AGI 시스템: 도쿄의 한 회사가 모델을 만들었다고 주장 - 이터레 스팅 엔지니어링와 같은 기사들은 Integral AI의 로봇 시연을 살펴보면서 동료 검토와 공개 평가의 부재를 강조하고 있습니다. 저널, 컨퍼런스 또는 권위 있는 실험실이 참여할 때까지, 이 증거는 복제된 발견보다는 달나라 아이디어에 더 가깝습니다.

경쟁자들에 대한 압박은 그러나 arXiv를 기다리지 않습니다. OpenAI, Google DeepMind, Anthropic, Meta, 그리고 Baidu와 DeepSeek 같은 중국 대기업들은 이제 30명 규모의 도쿄 기업이 순서를 건너뛴 것 아닌가 하는 질문을 투자자와 정부로부터 받고 있습니다. 이로 인해 내부 AGI 프로그램이 가속화되고, 안전 장치가 느슨해지며, 모든 이들이 구현된 지능의 더 빠른 배포를 향해 나아가게 될 수 있습니다—검증 여부에 관계없이.

AGI 이후의 세계: 이제 어떤 일이 일어날까요?

만약 Integral AI의 수치가 외부 감사를 견뎌낸다면, AI의 중심이 하룻밤 사이에 이동합니다. 데이터 세트, 레이블 또는 미세 조정 없이 새로운 기술을 학습하는 AGI 가능 시스템은 오늘날의 프롬프트 엔지니어를 내일의 유산 시스템 관리자처럼 만들어 버릴 것입니다.

로봇 공학은 가장 먼저 영향을 받습니다. 공장을 감시하고, 작업을 추론하며, 몇 개월의 수작업 코드 작성이 아닌 며칠 만에 팔과 이동 로봇의 무리를 훈련할 수 있는 단일 모델은 현재의 통합 시장을 뒤흔들고 물류, 창고 및 노인 돌봄 분야에서 인건비를 대폭 줄일 수 있습니다.

약물 발견과 재료 과학이 뒤따릅니다. 한 번에 하나의 단백질 표적만 최적화하는 부서진 파이프라인 대신, 고충실도 시뮬레이터에서 실험하는 구현된 세계 모델이 매주 수천 개의 후보 분자를 설계, 테스트 및 반복할 수 있으며, 제약 산업의 10년 기간을 18–24개월로 압축할 수 있습니다.

자동화는 더 이상 “좁은” 범위를 벗어나 주변적이 됩니다. Integral의 유니버설 오퍼레이터가 광고처럼 작동한다면, 시스템에 복잡한 목표를 넘겨주면 됩니다—“이 지역 전력망을 안정화하라,” “이 도시의 교통 일정을 재구성하라,” “이 은행을 COBOL에서 이관하라”—그러면 시스템은 이를 분해하고 계획을 세워 소프트웨어, 로봇, 그리고 인간 팀 간에 실행합니다.

사회는 부드러운 전환을 경험하지 못합니다. 업무는 과업 중심의 고용에서 목표 및 감독 역할로 이동하며, 데이터 입력, 기본 회계, 일선 지원과 같은 직종이 몇 개의 제품 주기 안에 무너집니다. 정부는 정책 모델링, 사이버 공격, 인프라 관리에서 공공 서비스를 능가할 수 있는 시스템을 규제하기 위해 분주하게 움직입니다.

세계 거버넌스가 긴급한 문제로 떠오릅니다. 바티칸의 초기 AGI 윤리 상담에서의 조용한 역할이 갑자기 예견된 것처럼 보이며, 종교 및 시민 기관들이 창세기 급 플랫폼이 몇 시간 안에 전문가 협의를 능가할 수 있을 때 "자유"와 인간 의 agency의 의미를 정의하기 위해 경쟁하고 있습니다.

AGI는 오랫동안 2040-2050년의 가상적인 전망으로 여겨졌으나, 이제 실제 로봇에서 시연된 상용 제품으로 등장했습니다. 논의는 더 이상 가능성에 대한 것이 아니라, 누가 그것을 제어하는지, 얼마나 빠르게 확장되는지, 그리고 우리의 제도가 우리의 코드만큼 빠르게 업데이트될 수 있는지를 중심으로 진행되고 있습니다.

자주 묻는 질문

인테그랄 AI의 주요 AGI 주장是什么?

인티그랄 AI는 세계 최초의 'AGI 능력을 갖춘' 모델을 구축했다고 주장합니다. 이 시스템은 기존 데이터셋, 인간의 개입 또는 감독 없이 전 completely 새로운 기술을 자율적으로 학습할 수 있습니다.

인테그럴 AI의 모델은 GPT-4나 제미니와 어떻게 다른가요?

대규모 언어 모델이 패턴 인식 및 텍스트 예측에 뛰어난 반면, Integral AI의 아키텍처는 인간의 신피질을 모방하도록 설계되었습니다. 이는 추상화, 계획 및 실제 행동에 중점을 두며, 진정한 이해와 거의 인간 수준의 에너지 효율성을 목표로 합니다.

Jad Tarifi는 Integral AI의 창립자입니다.

자드 타리피는 인테그럴 AI의 CEO이자 구글의 이전 AI 전문가입니다. 그는 도쿄에서 인테그럴 AI를 설립하기 전에 거의 10년 동안 구글에서 초기 생성형 AI 시스템을 구축하는 데 헌신했습니다.

인티그럴 AI의 AGI 주장은 독립적으로 검증되었습니까?

아니요, 아직 아닙니다. 그들의 발표에 따르면, 그들의 주장에 대한 독립적인 동료 검토가 이루어지지 않았습니다. 기술 커뮤니티는 추가 증거를 기다리며 조심스럽고도 낙관적인 입장을 유지하고 있지만 회의적입니다.

Frequently Asked Questions

AGI 이후의 세계: 이제 어떤 일이 일어날까요?
만약 Integral AI의 수치가 외부 감사를 견뎌낸다면, AI의 중심이 하룻밤 사이에 이동합니다. 데이터 세트, 레이블 또는 미세 조정 없이 새로운 기술을 학습하는 AGI 가능 시스템은 오늘날의 프롬프트 엔지니어를 내일의 유산 시스템 관리자처럼 만들어 버릴 것입니다.
인테그랄 AI의 주요 AGI 주장是什么?
인티그랄 AI는 세계 최초의 'AGI 능력을 갖춘' 모델을 구축했다고 주장합니다. 이 시스템은 기존 데이터셋, 인간의 개입 또는 감독 없이 전 completely 새로운 기술을 자율적으로 학습할 수 있습니다.
인테그럴 AI의 모델은 GPT-4나 제미니와 어떻게 다른가요?
대규모 언어 모델이 패턴 인식 및 텍스트 예측에 뛰어난 반면, Integral AI의 아키텍처는 인간의 신피질을 모방하도록 설계되었습니다. 이는 추상화, 계획 및 실제 행동에 중점을 두며, 진정한 이해와 거의 인간 수준의 에너지 효율성을 목표로 합니다.
인티그럴 AI의 AGI 주장은 독립적으로 검증되었습니까?
아니요, 아직 아닙니다. 그들의 발표에 따르면, 그들의 주장에 대한 독립적인 동료 검토가 이루어지지 않았습니다. 기술 커뮤니티는 추가 증거를 기다리며 조심스럽고도 낙관적인 입장을 유지하고 있지만 회의적입니다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts