인공지능 공황은 수십억 달러의 거짓말이다.

슈퍼지능 종말을 잊어라; 세계 최고의 개발자들은 그것이 비현실적인 산만함이라고 주장하고 있다. 진정한 AI 혁명은 질병에서 기후 변화에 이르기까지 인류의 가장 큰 문제를 해결하기 위한 구체적인 도구를 만드는 것이다.

Stork.AI
Hero image for: 인공지능 공황은 수십억 달러의 거짓말이다.
💡

TL;DR / Key Takeaways

슈퍼지능 종말을 잊어라; 세계 최고의 개발자들은 그것이 비현실적인 산만함이라고 주장하고 있다. 진정한 AI 혁명은 질병에서 기후 변화에 이르기까지 인류의 가장 큰 문제를 해결하기 위한 구체적인 도구를 만드는 것이다.

AI를 멈추기 위한 '마법의 지팡이'는 환상이다.

마법 지팡이는 AI 담론에서 주목받고 있습니다. 특정 연구자들과 창립자들에게 물어보면, 그들은 만약 가능하다면 인류의 통제를 넘어서는 runaway 초지능을 피하기 위해 오늘 AI 개발을 중단할 것이라고 말할 것입니다. 그 환상은 현 상태를 고정시키기 위한 “일시 중지,” 유예, 그리고 글로벌 조약을 위한 청원에 힘을 실어줍니다.

현실은 협력하지 않는다. 현대 경제는 기술 발전의 복리 효과에 의존한다: 트랜지스터 수는 수십 년 동안 대략 2년마다 두 배로 증가했고, 전 세계 데이터 양은 2010년 약 2 제타바이트에서 2023년에는 120 제타바이트 이상으로 급증했으며, AI 모델 훈련 예산은 이제 최전선 시스템당 수천만 달러에 달한다. 이를 중단하는 것은 정치적으로 불가능할 뿐만 아니라, 경쟁국이 그러지 않는 상황에서 이를 시도하는 어떤 국가에겐 전략적으로 자살행위나 다름없다.

보다 실용적인 입장은 AI를 도구로 간주하며, 신화적인 적으로 보지 않습니다. "AI는 도구이지 위협이 아니다"라는 대화에서, 웨스와 딜런은 배포에 철저히 초점을 맞춘 지속적인 개발이 오늘날 실질적인 이점을 제공한다고 주장합니다: 더 나은 진단, 더 안전한 도로, 더 저렴한 에너지. 인슐린 생산을 더 효율적으로 하거나 도시의 전력 사용량을 두 자릿수로 줄이는 데 신적인 AGI가 필요하지 않습니다.

AI에 대한 이진 “켰다/꺼졌다” 스위치 대신, 그들은 특정 도메인을 겨냥한 좁은 AI 시스템의 스펙트럼을 추진하고 있습니다. 다음과 같은 모델을 지목할 수 있습니다: - 개별 질병에 대한 약물 발견 - 녹색 에너지 예측 및 그리드 균형 조정 - 스마트 시티 교통 및 인프라 최적화

이들 각각은 제한된 목표, 측정 가능한 결과, 그리고 기존의 규제 요소를 기반으로 합니다. 이는 멸종 스릴러가 아닌 거버넌스 문제입니다.

마법 지팡이 같은 프레임은 기술이 실제로 진화하는 방식을 무시합니다. 우리는 이미 애플리케이션에서 반자율 시스템을 갖춘 전화기, 공장, 자동차를 보유하고 있으며, 자율주행 파일럿이 피닉스에서 선전까지 도시에서 운영되고 있습니다. 웨스와 딜런은 자율주행을 위한 기술적 능력이 대부분 존재한다고 주장하며, 현재의 배치는 정부, 보험사 및 물류 제공업체가 따라잡기를 기다리고 있다고 말합니다.

따라서 진정한 선택은 "AGI를 구축할 것인가, 말 것인가"가 아닙니다. 그것은 사회가 지속적인 AI 발전을 구체적이고 검증 가능한 도구로 형성할 것인지, 아니면 이를 완전히 멈추려는 불가능한 환상을 쫓을 것인지에 대한 문제입니다.

AGI는 잊어라—진정한 혁명은 '지루한' AI다.

일러스트: AGI는 잊어버리세요—진정한 혁명은 '지루한' AI입니다.
일러스트: AGI는 잊어버리세요—진정한 혁명은 '지루한' AI입니다.

지금 당장 공상 과학의 AGI를 잊고 자금을 따라가 보세요. 현재 AI에 유입되는 거의 모든 달러는 배치에 초점을 맞추고 있습니다: 질병을 진단하고, 트럭을 경로 설정하며, 코드를 작성하고, 주식을 거래하는 모델들이지, 인류의 멸망을 계획하는 신과 같은 마음은 아닙니다. 투자자들은 선적할 수 있고, 청구할 수 있으며, 반복 개발할 수 있는 시스템을 원하지, 가상 초지능에 관한 철학적 실험을 원하지 않습니다.

좁은 AI는 정확히 그 의미입니다: 명확한 제약 조건 하에 특정 영역을 마스터하기 위해 구축된 시스템입니다. 사기 탐지 모델은 거래를 분석하며, 시를 분석하지는 않습니다. DeepMind의 AlphaFold와 같은 단백질 접힘 모델은 2억 개 이상의 단백질에 대한 3D 구조를 예측합니다. 비행기 예약이나 이메일 작성을 하지 않습니다.

그 초점은 위험 계산을 변화시킵니다. 풍력 발전소를 최적화하거나 CT 스캔에서 종양을 표시하는 모델은 편향, 중단, 잘못된 인센티브와 같은 실제 단점을 가지고 있지만 "종이클립 극대화자"의 멸종 시나리오는 아닙니다. 그것을 샌드박스에 가두고, 모니터링하고, 끌 수 있으며, 버전을 롤백할 수 있습니다. 그러나 조정의 재앙론자들이 모든 정책 대화에서 중심으로 삼는 상상의 전지전능 AGI에 대해서는 그렇게 말할 수 없습니다.

한편, 오늘날 협소한 AI가 해결할 수 있는 문제의 적체는 끝이 없어 보입니다. 신약 개발만 해도 수천 가지 질병을 아우르며, AI가 설계한 분자는 후보 선별 시간을 수년에서 몇 달로 단축했습니다. 2023년, 인실리코 메디슨은 AI 설계의 섬유증 치료제를 2상 임상시험으로 진행했으며, 이는 일반적으로 10년의 작업과 10억에서 20억 달러의 비용이 드는 과정을 압축한 것입니다.

에너지 및 인프라는 또 다른 명확한 대상 목록을 제공합니다: - 그리드 부하 예측 및 수요 반응 - 풍력 및 태양광 발전 예측 - 혼잡한 도시의 신호등 최적화 - 교량, 철도 및 변압기에 대한 예측 유지보수

싱가포르와 바르셀로나와 같은 곳에서의 스마트 시티 파일럿은 이미 기계 학습을 활용하여 혼잡도를 두 자릿수 퍼센트로 줄이고 공공 건물의 에너지 사용량을 감소시키고 있습니다. 이를 전 세계적으로 확장하면 새로운 물리학 원리를 하나도 발명하지 않고도 기가톤의 배출량을 줄일 수 있습니다.

자율주행차 논쟁조차 AGI 이야기의 왜곡된 면을 드러냅니다. 엘론 머스크가 자율성이 "일반 지능"을 요구한다고 주장했음에도 불구하고, 현재 피닉스, 샌프란시스코, 심천에서는 4단계 로봇택시가 운영되고 있습니다. 장애물은 의식 모듈이 아니라 규제 기관, 보험사, 그리고 시의회입니다.

당신의 다음 암 치료제가 AI에 의해 설계될 수 있습니다.

암 연구 실험실은 이미 생성 모델을 사용하여 인간이 발견하는 데 수년이 걸릴 분자를 설계하고 있습니다. Insilico Medicine은 AI가 설계한 분자로부터 섬유증 약물을 개발하여 4년도 채 안 되어 2상 임상 시험에 진입했습니다. 이러한 과정은 일반적으로 10년 이상 걸립니다. Google DeepMind의 AlphaFold는 2억 개 이상의 단백질 구조를 예측하여 약물 개발자들에게 잠재적 표적에 대한 검색 가능한 아틀라스를 제공합니다.

좁은 인공지능은 어떤 영화 같은 돌파구에서 “암 치료법을 발견”하지 않습니다; 그것은 수백 개의 작은 단계에서 시간과 비용을 절감합니다. 모델은 수십억 개의 화합물을 인실리코 환경에서 스크리닝하고, 쥐가 주사를 맞기 전에 독성을 예측하며, 단일 종양의 변이에 맞춘 약물 조합을 개인화합니다. 제약 대기업들은 이제 모든 후보 약물이 젖은 실험실에 들어가기 훨씬 이전에 기계 학습 필터를 통과하는 AI 우선 파이프라인에 대해 이야기하고 있습니다.

거의 모든 질병을 선택하면 그 작업 흐름이 반복됩니다. 희귀 유전 질환의 경우, 모델은 CRISPR 가이드를 위한 편집을 제안하고 비표적 효과를 시뮬레이션합니다. 전염병의 경우, EVEscape와 같은 시스템은 바이러스 변이를 예측하여 다음 변종에 앞서 나가는 백신 설계를 돕습니다. 이러한 모든 과정은 의식이 있는 기계를 요구하지 않으며, 단지 페타바이트의 생물의학 데이터에서 끊임없는 패턴 인식이 필요합니다.

에너지 인프라도 조용히 같은 변화를 겪고 있습니다. 전력망 운영자는 AI를 활용하여 수요를 15분 간격으로 예측하고 배터리, 가스 피커, 혹은 옥상 태양광 발전소의 dispatch 시점을 최적화합니다. 구글은 DeepMind의 강화 학습을 적용한 후 데이터 센터의 냉각 에너지가 약 40% 감소했다고 보고했으며, 이는 도시들이 지역 냉각 및 난방 네트워크를 위해 본받을 수 있는 사례입니다.

스마트 시티 프로젝트는 이제 최적화 알고리즘을 사용하여 실시간으로 신호등을 조정함으로써 혼잡과 배출가스를 줄이고 있습니다. AI 모델은 전기 버스를 경로 설정하고, 전력망의 급증을 피하기 위해 충전을 계획하며, 폭발하기 전에 어떤 변압기가 고장 날지를 예측합니다. 도시 계획자는 위성 이미지와 센서 데이터를 시스템에 입력하여 전기차 충전기, 자전거 도로 및 마이크로 그리드를 설치할 위치를 제안합니다.

이 모든 것은 추상적인 미래에 존재하지 않습니다. 이러한 도구들은 오늘날 병원, 유틸리티, 시청에서 운영되고 있으며, 경영대학들은 AI는 위협이 아닌 흥미로운 기회다 - AACSB와 같은 자료로 동일한 메시지를 전하고 있습니다. 이른바 "AI 공포"는 실제로는 멸망이 아닌 배치에서 진정한 행동이 이미 이루어지고 있다는 사실을 대체로 무시합니다.

일론 머스크는 자율주행차에 대해 잘못 알고 있었다.

일론 머스크는 한때 자율주행차를 과소평가했다고 말하며 “우리가 그것을 작동시키기 위해 일반 지능을 해결해야 한다는 것을 깨닫지 못했다”라고 덧붙였습니다. 이는 깊이 있는 발언처럼 들렸고, 도로에서의 자율성을 위해서는 디지털 인간 두뇌와 유사한 무언가가 필요하다는 의미로 해석되었습니다. 그러나 시간이 지날수록 그 말은 잘못된 것으로 드러났습니다.

자율주행은 더 이상 AGI를 기다리는 불확실한 목표처럼 보이지 않는다; 이제는 배치 문제처럼 보인다. 크루즈, 웨이모, 바이두 등은 철학이 아닌 인식, 예측, 계획에 특화된 좁은 AI 스택으로 수백만 마일의 자율주행을 기록했다. 웨이모는 2023년까지 700만 마일 이상의 완전 자율주행 거리를 보고했으며, 몇 가지 범주에서 사고 발생률이 인간 기준 이하로 나타났다.

웨스 로스와 딜런 큐리어스가 자율주행에 대해 이야기할 때, 그들은 단호하게 말합니다: “저는 그들이 해결했다고 생각합니다.” 그들의 주장은 로봇택시가 실질적인 거리에서 유료 승객과 함께 운영되고 있는 피닉스, 샌프란시스코, 선전, 두바이에서 목격할 수 있는 것과 일치합니다.missing piece는 인지의 획기적인 발전이 아니라 규모, 인프라, 그리고 법적 승인입니다.

자율주행은 이제 기술적 불가능성과의 충돌보다 규제자와 보험사들과의 충돌이 더 많습니다. 도시들은 운전자가 없는 자동차가 보행자를 치었을 때의 책임 문제에 대해 걱정하고 있습니다. 보험사들은 과실이 인간에서 소프트웨어 중첩과 여러 공급업체로 이동할 때 위험을 가격 책정하는 데 어려움을 겪고 있습니다. 지방 정부는 데이터 소유권, 주차 공간, 그리고 알고리즘이 준수해야 할 교통 규칙의 통제권을 두고 갈등하고 있습니다.

머스크의 AGI 프레이밍은 "일반 이해"가 실제로 얼마나 많은 요구를 받는지를 과대 평가하고 있다. 고속도로 차선 유지, 도시의 좌회전, 보호받지 않는 교차로는 극도로 어려운 경계 사례지만 여전히 패턴 인식 및 제어 문제이다. 테슬라 오토파일럿, 웨이모 드라이버, 바이두 아폴로와 같은 시스템은 다음과 같은 특화된 모델들을 연결하여 작동한다: - 객체 감지 - 차선 및 도로 구도 - 행동 예측 - 동작 계획

그 모델들은 인간처럼 세상을 "이해"하지 못하지만, 제한된 영역에서는 충분히 잘 근사합니다. 그게 핵심입니다: 당신은 시를 쓰고, 세금을 신고하며, 윤리를 논의할 수 있는 시스템이 필요하지 않습니다. 당신은 출근 시간에 I-280에 합류할 수 있는 소프트웨어가 필요합니다. 그것은 절대 휴대폰을 보지 않아야 합니다.

차가 스스로 운전할 수 없는 진짜 이유

일러스트: 당신의 차가 스스로 운전하지 못하는 진짜 이유
일러스트: 당신의 차가 스스로 운전하지 못하는 진짜 이유

규제가 로봇이 아닌 당신의 핸들을 붙잡고 있습니다. Waymo, Cruise, Tesla의 자율 시스템은 이미 레벨 2~4 자율성으로 수백만 마일을 주행하며 차선 유지, 적응형 크루즈, 복잡한 도시 도로를 처리하고 있습니다. 코드는 운전하지만, 법은 제동을 걸습니다.

정부는 법률 속도로 움직이지, 네트워크 지연 속도로 움직이지 않습니다. 인공지능(AI) 운전자가 무엇인지, 누가 이를 인증하며, 나쁜 업데이트가 배포될 경우 어떻게 리콜할 것인지를 규정해야 공공 도로에 인간 운전자가 없는 자동차를 배치할 수 있습니다. 미국에서는 NHTSA(국립교통안전청), 주 차량관리국(DMV), 그리고 시의회가 모두 중복되는 권한을 주장하므로, 모든 배치는 맞춤형 법적 협상으로 변합니다.

규제 당국은 비대칭적인 위험에 대해서도 우려하고 있다. 한 차세대 충돌 사고가 발생하면 의회 청문회와 중단이 이어지지만, 인간이 미국 도로에서 매년 약 4만 명의 생명을 앗아가는 경우에도 마찬가지이다. 이러한 정치적 비대칭성은 기관들이 자동 운전 운영을 위한 명확하고 국가적인 규칙 대신 끝없는 파일럿 프로그램과 “안전성 평가”로 나아가도록 밀어넣고 있다.

보험은 또 다른 마찰을 더합니다. 전통적인 자동차 보험은 사람의 과실을 전제로 하지만, NVIDIA 하드웨어에서 실행되는 신경망 네트워크는 그렇지 않습니다. 보험 인수자는 책임이 아래 중 누구에게 있는지를 결정해야 합니다: - 자동차 소유자 - 자동차 제조사 - 소프트웨어 공급업체 - 센서 공급업체

그 책임의 얽힘이 풀릴 때까지 보험사들은 불확실성을 보험료에 반영하거나 아예 보장을 거부합니다. 자율주행 차량이 포함된 단일 다중 차량 충돌 사고는 여러 관할권에서 수년간의 소송을 촉발할 수 있어 CFO들을 엔지니어들보다 훨씬 더 긴장하게 만듭니다.

기업 법무팀은 합리적으로 대응합니다: 점진적인 배치. 기업들은 안전 운전자를 자리에 두고, 사업 영역을 안전한 동네로 제한하며, 속도를 제한해 부정적인 이목을 최소화합니다. 그 결과는 기술적 실패처럼 느껴지지만, 실제로는 위험 관리가 제품 범위를 결정하고 있습니다.

이 모든 일은 좁은 컴퓨터 비전과 계획 시스템이 제한된 영역에서 주의가 산만한 인간보다 대부분의 운전 작업을 더 잘 처리하고 있는 가운데 발생합니다. 고속도로 행렬주행, 지도화된 도시에서의 로보 택시 및 자율 트럭 허브는 I-280으로 합류하는 데 수다스러운 AGI가 필요하지 않음을 증명합니다. 당신이 필요한 것은 전문화된 스택, 강력한 데이터, 그리고 "충분히 좋은" AI가 이미 운전할 수 있음을 받아들이려는 기관들입니다.

지능은 스위치가 아니다—스펙트럼이다.

지능은 스위치처럼 단순하게 작동하는 것이 아니라 수십 개의 슬라이더가 있는 조 dimmer처럼 작동합니다. 인간은 그 보드에서 한 지점에 앉아 있지만, 오징어, 체스 엔진, 그리고 당신이 다음에 볼 것을 조용히 결정하는 추천 알고리즘 역시 그곳에 존재합니다. 지능을 스펙트럼으로 간주하면 “인간 vs 기계”라는 구별이 “말 vs 자동차”만큼 시대에 뒤떨어진 것처럼 들립니다.

그 주파수를 받아들이게 되면, 도구로서의 AI는 슬로건이 아니라 공학 원칙이 됩니다. 다양한 아키텍처는 서로 다른 단계에 위치하고 있습니다: 컨볼루션 신경망은 비전 분야에서 지배적이며, 트랜스포머는 언어 처리에서 우위를 점하고, 강화 학습 에이전트는 로봇 공학과 같은 제어 문제를 해결합니다. 이들 모두는 당신과 같은 방식으로 "생각"하지 않지만, 각각은 자신의 좁은 영역에서 초인적 성능을 발휘합니다.

그 스펙트럼 관점은 인공지능 일반화에 대한 집착을 약화시킵니다. MRI에서 종양을 발견하거나 실시간으로 전력 그리드를 조정하려면 디지털 아인슈타인이 필요하지 않습니다. 다음과 같이 조정된 모델이 필요합니다: - 특정 데이터 분포 - 명확한 목표 함수 - 긴밀한 피드백 루프

계산기는 수십 년 전부터 이 사실을 분명히 했습니다. 5달러 짜리 카시오 계산기가 12자리 곱셈과 삼각 함수를 처리하는 데 있어 어떤 인간도 이길 수 있지만, 아무도 이를 “감성적”이라고 부르지 않습니다. 전문 도구들은 이미 기상 예측, 단백질 접힘, 물류 경로 설정에서 인간을 초월하며, 일반 지능의 신비로운 경계를 넘지 않고 있습니다.

현대 AI는 그 패턴을 확장할 뿐입니다. DeepMind의 AlphaFold는 수년과 수백만 달러가 소요되는 실험실 방법에 필적하는 정확도로 단백질 구조를 예측합니다. 대형 언어 모델은 계약서를 작성하고, 300페이지 보고서를 요약하며, 코드 조각을 생성하는 등 많은 일을 해내지만, 5살 어린이가 사소하다고 여기는 작업, 예를 들어 지저분한 주방에서의 물리적 인과성 이해 같은 것은 실패합니다.

이것은 버그가 아닌 기능입니다. 도구처럼 작동하는 AI는 데이터베이스 엔진이나 그래픽 카드를 교체하듯 감사하고, 제한하며, 교체할 수 있습니다. 지능의 스펙트럼적 관점은 모듈화를 촉진합니다: 한 시스템은 사기를 탐지하고, 다른 시스템은 검색 결과를 순위 매기며, 세 번째 시스템은 네트워크 이상을 모니터링합니다.

보안 연구자들은 이미 이러한 혼합된 세계에 살고 있습니다. 자동화된 스캐너, 이상 탐지기, LLM 기반의 어시스턴트가 로그를 분석하는 동안, 인간은 전략, 기만, 그리고 엣지 케이스를 처리합니다. 이 노동 분업에 대한 더 깊은 통찰은 AI가 사이버 보안 전문가를 대체할 것인가? 인간 대 AI 논쟁을 참고하세요.

AI 금광의 두 부족 내부

AI 연구소 내부에서 "도구, 아닌 위협"에 대한 논의는 철학적 경계선으로 굳어지고 있다. 한쪽에는 AI를 산업 인프라로 보고 클라우드 컴퓨팅이나 반도체와 다를 바 없다고 여기는 빌더들이 있다. 반대편에는 "신경 초지능"과 존재적 위험에 대해 아이스하키 날 그래프를 주시하는 기후 활동가들처럼 긴급하게 이야기하는 안전주의자들이 서 있다.

건축자들은 재앙이 아닌 배포에 대해 이야기합니다. 그들은 이미 약물 후보를 설계하고, 공급망을 최적화하며, 생산 코드를 작성하는 모델을 지적하며, 진행을 중단하는 것은 오늘날 혜택을 받을 수 있는 실제 환자, 근로자 및 도시를 버리는 것이라고 주장합니다. 그들에게 "AI를 멈추기 위한 마법의 지팡이" 시나리오는 정책이 아닌 판타지 팬픽처럼 들립니다.

안전 전문가들은 그 논리를 뒤집습니다. 그들은 시스템이 특정 능력 임계점에 도달하면—자동 코딩, 도구 사용, 장기 계획—우리가 이를 통제할 수 있는 능력보다 원치 않는 행동이 더 빠르게 확산된다고 주장합니다. AI 안전 센터와 효과적 이타주의 네트워크와 같은 그룹은 불일치 시스템이 시장, 인프라 또는 정보 흐름을 조작하는 꼬리 위험 시나리오를 인용하며 컴퓨팅 한도, 라이센스 부여, 심지어 중단을 촉구하고 있습니다.

동기 또한 뚜렷하게 엇갈린다. OpenAI, Google DeepMind, Anthropic, NVIDIA와 같은 회사의 건축자들은 GPU, 사용자 수, 수익으로 측정되는 경쟁의 경주를 보고 있다. 반면, 안전 전문가들은 "먼저 출시하는 자가 이긴다"는 같은 경주 역학이 레드팀, 해석 가능성, 정렬 연구에서 갈음과 단축을 조장할 것이라고 우려하고 있다.

주장들은 타임라인과 증거에 대해 상이하다. 건설자들은 오늘날의 AI 시스템이 여전히 기본적인 강건성 테스트에 실패하고, 사실을 환각하며, 분포 밖 데이터에 어려움을 겪고 있다고 지적하며 이는 결코 “신과 같은 지능”을 외치지 않는다고 말한다. 안전주의자들은 1천억 개 이상의 매개변수를 가진 모델에서의 스케일링 법칙, emergent 행동 및 실험실 환경에서 자율 에이전트가 자신의 제약을 탈출하는 사건 등을 반박한다.

공공의 인식은 이 싸움의 하류에 있습니다. 일주일 동안 엘론 머스크가 "악마를 소환하는 것"에 대해 경고하고 다음 주에는 "풀 자율 주행"을 판매할 때, 언론 매체는 멸종 헤드라인과 제품 과장 사이를 오갑니다. 스마트폰에서 팬픽을 작성하는 동일한 모델이 실직, 편견, 그리고 악성 챗봇에 대한 이야기도 촉발합니다.

보도는 부족의 경계를 반영합니다. 건설자들은 AI 조종사와 생산성 급증에 대한 이야기들을 제공하고, 안전론자들은 “판도라의 상자”와 “정렬되지 않은 초지능”에 대한 인용을 제공합니다. 그 사이에 끼인 사용자는 AI를 스프레드시트 보조자이자 공상 과학 속 악당으로 보고 있으며, 이는 그날 피드에서 어떤 부족의 논점이 지배적이냐에 따라 달라집니다.

빅 테크가 조용히 협소한 AI를 지원하는 이유

일러스트레이션: 왜 대형 기술기업들이 조용히 좁은 인공지능을 지지하고 있는가
일러스트레이션: 왜 대형 기술기업들이 조용히 좁은 인공지능을 지지하고 있는가

조용히, 거의 수줍게, 빅테크는 이미 “도구 대 위협” 전쟁에서 한 편을 선택했으며, 이는 API 호출에 따라 요금을 청구하고 있다. 회의 무대에서의 AGI 설교에도 불구하고 수익은 기존 워크플로에 통합되어 짜증나는 구체적인 문제를 해결하는 좁은 AI에서 나온다. 투자자들은 초지능에 대한 감정에 자금을 지원하지 않는다; 그들은 클라우드 비용을 20% 절감하거나 전환율을 3.7% 향상시키는 제품에 자금을 지원한다.

시장에서는 명확히 전달했습니다: 그들은 인프라처럼 느껴지는 전문화된 API 기반 서비스를 원합니다, 공상 과학이 아닙니다. 기업은 문서에서 개인 식별 정보를 제거하거나, 200페이지 계약서를 요약하거나, 15개 언어로 광고 문구를 자동 생성하는 모델에 비용을 지불합니다. 이들은 연구용 장난감이 아니라, 서비스 수준 계약(SLA), 대시보드, 그리고 조달 시스템의 항목으로 제공됩니다.

OpenAI의 비즈니스는 이러한 변화를 반영합니다. ChatGPT는 주목을 받지만, 실제 수익은 OpenAI의 API에 있으며, 여기서 GPT-4, 미세 조정된 변형, 및 임베딩이 다음을 지원합니다: - 고객 지원 봇 - 코드 보조기 - 문서 검색 및 분류 - 워크플로 자동화

OpenAI는 "프로토-AGI"를 판매하지 않습니다; 대신 특정 사용 사례에 맞춰 조정된 토큰을 요청에 따라 처리하여 판매합니다.

구글도 같은 전략을 따릅니다. 구글 클라우드는 Vertex AI, Gemini 모델 및 도메인 맞춤형 솔루션을 다음을 위해 제공합니다: - 콜센터 분석 - 소매 수요 예측 - 공급망 최적화 - 보안 이벤트 분류

제미니는 일반 보조 도구로 홍보되지만, 영업팀은 의식이 아닌 티켓 당 비용 절감에 대해 이야기합니다.

Anthropic은 이 현실에 더욱 강하게 집중하고 있습니다. Claude 3 Opus, Sonnet, 그리고 Haiku는 지연 시간, 비용, 맥락 창에 따라 명확하게 구분된 단계별 제품 라인으로 출시됩니다. 그들의 제안은 일반적인 지능의 출현에 대한 약속보다는 기업 환경에서의 신뢰성, 정책 집행, 내부 지식 검색, 규정 준수 워크플로우 등에 중심을 두고 있습니다.

AGI는 여전히 장기 브랜드 스토리로 남아 있으며, 오늘날의 연구개발 예산을 정당화하는 일종의 신학적 종착점입니다. 그러나 매 분기 실적 발표나 유출된 피치 덱은 동일한 방향을 가리킵니다: 단기적인 재무적 및 실질적 인센티브는 좁고, 내장된 AI에 집중되고 있습니다. 도구화는 기업들이 기술을 구매하는 방식, 즉 점진적이고, 예측 가능하며, KPI에 엄격히 연계된 방식을 충족하기 때문에 승리합니다.

AI 종말론자들이 놓치고 있는 것

AI 비관론자들은 문제를 환상적으로 자아내고 있는 것이 아닙니다. 그들은 모델을 이용한 생물학적 무기, 대규모 자동 해킹, 대규모 감시, 노동 충격, 그리고 수천억 개의 매개변수 모델에 권력을 집중시키는 소수의 기업들 같은 실제 위험을 지적하고 있습니다. 이러한 우려는 이미 NIST, EU AI 법안, 영국의 프론티어 AI 태스크포스의 정책 문서에 나타나고 있습니다.

그들이 잘못하는 점은 이러한 위험을 멸종으로 가는 일방적인 컨베이어 벨트로 보고, 대신 그것을 공학거버넌스 문제의 쌓임으로 보지 않는 것입니다. 우리는 이미 위험한 기술을 계층적인 통제로 완화하고 있습니다: 핵 물질에 대한 수출 제도, 항공기에 대한 FAA 인증, 약물에 대한 FDA 시험 등이 그러합니다. AI도 비슷하게 지루하고 관료적인 기계 장치가 필요하며, 연구를 중단시키는 빨간 버튼이 필요하지 않습니다.

좁은 인공지능은 규제 당국과 엔지니어들에게 그들이 이해할 수 있는 것을 제공합니다: 측정 가능한 실패 모드가 있는 한정된 시스템. 키나제 억제제를 설계하거나, 배달 트럭의 경로를 설정하거나, 사기 거래를 경고하는 모델은 특정 공격 표면—데이터 오염, 적대적 프롬프트, 편향된 훈련 세트—을 드러내며, 팀이 이를 테스트하고 레드 팀 활동을 수행하며 인증할 수 있도록 합니다. 가상의 신과 같은 지성으로는 그렇게 할 수 없습니다.

도메인 특화 시스템의 반복적인 배포는 추상적인 재앙 시나리오에서 누락된 현실 데이터를 생성합니다. AI 지원 진단을 기록하는 병원, AI 기반 대출 결정을 추적하는 은행, 교통 최적화 파일럿을 운영하는 도시 등은 모두 오류 비율, 편향 및 남용에 대한 실질적인 수치를 제공합니다. 이러한 수치는 사고 실험이 결코 미치지 못하는 방식으로 기준, 책임 규칙 및 보험 모델을 유도합니다.

개발 중단 요구는 안전하게 들리지만 실제로는 현재의 취약하고 불투명한 모델 및 안전장치가 없는 상황에서 우리를 얼어붙게 만듭니다. 진전이 멈추면 모델 해석 가능성, 워터마킹, 추론을 위한 보안 보호구역 및 강력한 평가 기준에 대한 작업 또한 중단됩니다. 결국 사회는 야생에서 검은 상자 도구를 갖게 되고 이를 관리할 제도적 힘이 없게 됩니다.

더 합리적인 경로는 다음과 같습니다: - 의료, 물류 및 기후 기술에 좁은 AI 도입 촉진 - 엄격한 감사 및 사건 보고로 배포를 감시 - 능력과 증거가 축적됨에 따라 규제 강화

그 접근법은 AI가 주술이 아닌 주된 도구라는 주장을 하는 그룹의 새로운 틀과 일치합니다. 예를 들어, AI는 도구이지 위협이 아니다; 인간 + AI > AI - LSAC를 참조하십시오. 개발을 중단하는 것은 이 분야를 포기하는 것이며, 통제된 배포는 우리에게 우위를 제공합니다.

우리의 사명: 도구를 만들고, 디지털 신을 만들지 말자.

우리의 AI와의 미래는 디지털 신을 창조하는 데 달려 있지 않다; 더 나은 도구를 만드는 데 달려 있다. 모델을 신탁이 아닌 도구로 여겨야 그 가치가 뚜렷해진다: 패턴 인식기, 코드 공동 조종사, 실험실 조수, 물류 계획자. 각 시스템은 매우 좁은 분야에서 뛰어난 성능을 발휘하며, 그 점이 바로 혁신적이 되는 이유이다.

프레임을 전환하면 정책 논의가 하룻밤 사이에 바뀝니다. 가상적 초지능에 대해 논쟁하는 대신, 법makers는 의료 진단, 배출 추적 또는 대출 승인에 대한 AI 기준을 작성할 수 있습니다. 규제 기관은 이미 항공기, 의약품 및 원자력 발전소에 대해 이러한 작업을 수행하고 있으며, AI도 일반적인 패닉 버튼이 아닌 동일한 도메인 특정 규칙을 받아야 합니다.

개발자도 비슷한 책임을 지고 있습니다. 팀이 작은 모델을 클리닉, 창고 또는 도시 기반 시설에 배포하는 대신에 대형 언어 모델 벤치마크를 최적화할 때마다 기회비용이 쌓입니다. 선택은 "AGI가 아니면 망한다"가 아니라: - 응급실 대기 시간을 30-40% 단축하는 분류 시스템 - 국가 에너지 사용의 단일 자릿수를 절감하는 그리드 최적화기 - 수백만 톤의 식품 폐기물을 줄이는 공급망 모델입니다.

대중의 관심도 이동할 수 있습니다. 부모들은 공상 과학 로봇 저항에 대해 덜 걱정하고 자녀의 학교가 AI를 사용하여 실시간으로 학습 격차를 파악하는지에 대해 더 관심을 가져야 합니다. 근로자들은 결정을 설명하고 출처를 기록하며 인간을 포함시키는 보조 시스템을 요구해야 하며, 불투명한 블랙 박스가 자동으로 혜택이나 주택 담보 대출을 거부하는 것에 대해선 요구하지 말아야 합니다.

희망적인 추세는 신비로운 것이 아니라 구체적입니다. AI가 설계한 약물은 이제 5-10년 대신 24개월 이내에 임상 시험에 도달합니다. 컴퓨터 비전은 기름 밭에서 메탄 누출을 추적할 수 있으며, 강화 학습은 혼잡한 도시에서 통근 시간과 배출량을 줄이기 위해 신호등을 조정합니다.

진보와 안전은 서로 반대편에 존재하지 않습니다. 더 스마트하고 좁은 시스템은 단일한 “일반” 지능보다 테스트, 인증 및 리콜이 더 쉽습니다. 우리의 임무는 철저히 단순해야 합니다: 암, 기후 변화, 인프라 노후화를 해결하는 전문화된 AI를 구축하고, 디지털 신에 대한 이야기는 실제로 생명을 구하는 일에 방해가 되는 이야기로 간주해야 합니다.

자주 묻는 질문

AI는 도구로 간주되나요, 아니면 위협으로 간주되나요?

많은 전문가들은 AI가 특정 문제를 해결하기 위한 강력한 도구로 바라봐야 한다고 주장합니다. 예를 들어, 새로운 약물 개발이나 에너지 그리드 최적화와 같은 문제입니다. 그들은 초지능에 대한 두려움 때문에 발전을 중단하는 것과 유익하고 좁은 응용 분야에 개발을 집중하는 것 사이의 논쟁이 이어지고 있습니다.

좁은 인공지능(Narrow AI)과 일반 인공지능(AGI)의 차이는 무엇인가요?

좁은 인공지능(Narrow AI)은 자동차 운전이나 스캔에서 질병 식별과 같은 특정 작업을 수행하도록 설계되었습니다. 인공지능 일반(AGI)은 인간과 유사한 지능을 갖고 다양한 작업에 걸쳐 지식을 이해하고 학습하며 적용할 수 있는 능력을 가진 이론적인 형태의 인공지능입니다.

자율주행차 기술이 존재하는데 왜 아직 주류가 아니죠?

자율주행차를 위한 핵심 AI 기술은 대부분 존재하지만, 광범위한 도입은 기술적이지 않은 장벽으로 인해 지연되고 있습니다. 여기에는 복잡한 정부 규제, 해결되지 않은 보험 책임 문제, 그리고 대규모 배치를 위한 엄청난 물류 도전 과제가 포함됩니다.

오늘날의 좁은 인공지능(narrow AI)의 실용적인 적용 사례는 무엇인가요?

좁은 AI는 이미 질병에 대한 약물 발견 가속화, 친환경 에너지 시스템 최적화, 스마트 시티의 교통 관리, 자율 운송 시스템 지원 등 다양한 유익한 작업에 사용되고 있습니다.

Frequently Asked Questions

AI는 도구로 간주되나요, 아니면 위협으로 간주되나요?
많은 전문가들은 AI가 특정 문제를 해결하기 위한 강력한 도구로 바라봐야 한다고 주장합니다. 예를 들어, 새로운 약물 개발이나 에너지 그리드 최적화와 같은 문제입니다. 그들은 초지능에 대한 두려움 때문에 발전을 중단하는 것과 유익하고 좁은 응용 분야에 개발을 집중하는 것 사이의 논쟁이 이어지고 있습니다.
좁은 인공지능(Narrow AI)과 일반 인공지능(AGI)의 차이는 무엇인가요?
좁은 인공지능은 자동차 운전이나 스캔에서 질병 식별과 같은 특정 작업을 수행하도록 설계되었습니다. 인공지능 일반은 인간과 유사한 지능을 갖고 다양한 작업에 걸쳐 지식을 이해하고 학습하며 적용할 수 있는 능력을 가진 이론적인 형태의 인공지능입니다.
자율주행차 기술이 존재하는데 왜 아직 주류가 아니죠?
자율주행차를 위한 핵심 AI 기술은 대부분 존재하지만, 광범위한 도입은 기술적이지 않은 장벽으로 인해 지연되고 있습니다. 여기에는 복잡한 정부 규제, 해결되지 않은 보험 책임 문제, 그리고 대규모 배치를 위한 엄청난 물류 도전 과제가 포함됩니다.
오늘날의 좁은 인공지능(narrow AI)의 실용적인 적용 사례는 무엇인가요?
좁은 AI는 이미 질병에 대한 약물 발견 가속화, 친환경 에너지 시스템 최적화, 스마트 시티의 교통 관리, 자율 운송 시스템 지원 등 다양한 유익한 작업에 사용되고 있습니다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts