TL;DR / Key Takeaways
실리콘 밸리의 조용한 공황
AI의 가장 열렬한 전도자들이 갑자기 찾기 힘들어졌다. Stability AI의 해고된 설립자인 에마드 모스타크는 팟캐스트에서 무심코 폭탄 발언을 했다. 그는 내년에도 발생할 것으로 보이는 “다음 반AI 감정의 물결”고 불리는 위기에 의해 모든 공개 출연을 취소한 “많은 AI CEO”들을 알고 있다고 말했다.
그는 나쁜 뉴스 사이클 이후의 PR 조정을 이야기하는 것이 아니라, 보안 태세로서 이를 구체화했다. 그는 AI가 더 이상 새로운 것이 아니며 대규모로 화이트칼라 직업을 잠식하게 될 미래에 대한 응답으로 이를 설정했다. 이면에서, 경영진은 이를 브랜드 문제로 보지 않고 위험 표면으로 다룬다.
그 조용한 은신처는 여전히 AI를 화려한 생산성 도구로 다루는 대중적인 서사와 충돌합니다. 무대에서 AI는 "팀의 멍청한 멤버"로 여겨지며, 약간 지나치게 열정적인 인턴이 이메일을 작성하고 회의를 요약합니다. 사적인 메모에서 리더들은 거의 하룻밤 사이에 사이드킥에서 대체물로 뒤바뀌는 모델에 대해 이야기합니다.
앤트로픽의 다리오 아모데이는 이미 하나의 수치를 제시했습니다: AI가 배치가 잘못될 경우, 10–20%의 실업률을 1~5년 내에 초래할 수 있습니다. 내부적으로, 기업들은 초급 분석가, 코더, 법률 보조원 및 고객 서비스 직원이 급여 명단에서 사라지는 시나리오를 모델링하고 있습니다. 이러한 시스템을 구축하는 사람들은 수명을 수십 년이 아닌 제품 주기로 측정하는 타임라인을 보고 있습니다.
한편, 억만장자 창립자들은 조용히 벙커, 강화된 시설, 그리고 외진 농장에 투자하고 있습니다. 더글라스 러시코프의 저서 “부자들의 생존”에서는 기술 엘리트들이 “사건” 시나리오에 집착하고 돈이 문제가 될 때 보안 팀의 충성을 유지하는 방법에 대한 비공식 브리핑을 묘사합니다. AI는 이러한 붕괴 환상 속에서 중심에 위치하고 있습니다.
공식적으로 AI CEO들은 여전히 컨퍼런스 무대에 올라 “책임 있는 혁신”과 “인간을 대체하는 것이 아니라 보완하는 것”에 대해 이야기합니다. 그러나 개인적으로 그들은 찰리 커크와 같은 정치 인사들이 반-AI 감정을 무기로 삼는 모습을 보고, 관련 없는 공격에 저격당하는 고위 CEO들을 보면서 행사에서 빠져나옵니다. 그들의 계산은 가시성에서 생존 가능성으로 변화합니다.
이것이 AI 붐의 핵심 긴장감입니다: 과대선전이 거세질수록 그 뒤에서 설계한 이들은 더욱 조용해집니다. 가장 최전선의 모델에 가까운 사람들은 마치 그들이 자신의 창조물에 의해 폭발 범위에 가까워진 것처럼 행동합니다. 기술 역사상 처음으로, 창조자들은 자신의 창조물로부터 숨을 준비하는 것처럼 보입니다.
2026년 전환점
AI의 "멍청한 인턴" 시대라고 부르자. 오늘날의 대형 언어 모델들은 대체로 지나치게 열정적인 신입사원처럼 느껴진다: 이메일을 작성하고, 회의를 요약하며, 복잡한 일에서는 황홀하게 진행하는 것이다. AI 연구소 내부의 불안감은 시스템이 도구로서의 역할을 멈추고 최소한의 감독으로도 계획을 세우고, 실행하며, 작업을 반복할 수 있는 자율 에이전트로 작용하기 시작하는 순간 이 단계가 갑자기 끝날 것이라는 공통된 믿음에서 비롯된다.
연구자들은 "부조종사"에서 "지불할 필요 없는 동료"로의 전환을 설명합니다. 하루에 50번 챗봇에게 질문하는 대신, AI 에이전트에게 CRM, 코드베이스, 및 캘린더를 제공하고 수익을 10% 증가시키거나 새로운 기능을 출시하라고 지시합니다. 그 에이전트는 도구를 조합하고 API를 호출하며 계약자를 고용하고, 승인받기 위해서만 인간에게 알립니다.
왜 2025–2026년인가요? 하드웨어, 모델 규모 및 데이터 파이프라인은 모두 대략 6~12개월 주기로 누적되고 있습니다. 프론티어 연구소는 이미 조 단위 파라미터 모델을 훈련하고 있으며, 두 세대가 더 진행된다면 추론, 기억 및 도구 사용을 잘 결합하여 대규모 화이트칼라 작업 흐름을 자율적으로 운영할 수 있는 시스템을 만들어낼 수 있을 것입니다.
골드만 삭스는 2023년에 생성적 AI가 전 세계적으로 3억 개의 정규직 일자리를 자동화할 수 있으며 현재 직무의 3분의 2에 영향을 미칠 수 있다고 추산했습니다. 그 당시에는 10년 단위의 이야기처럼 들렸습니다. AI 기업 내부에서는 시간적 전망이 조용히 단축되었습니다.
앤트로픽 CEO 다리오 아모데이는 최근 Axios와의 인터뷰에서 AI가 1~5년 내에 실업률을 10~20%로 증가시킬 가능성이 있다고 언급했습니다. 그는 이를 공상과학이 아닌 실제 위험으로 묘사하며, 초급 분석가, 법률 보조원, 지원 직원, 주니어 엔지니어 등은 그 영향권에 포함된다고 말했습니다. 이들은 기업 미국에서 보통 가장 먼저 해고되는 사람들입니다.
무서운 부분은 곡선의 형태입니다. 이는 노동자들이 천천히 재교육받는 매끄럽고 산업 혁명의 비행 경로로 예측되지 않습니다. 내부자들은 임계 효과를 예상합니다: 모델은 눈에 띄게 결함이 있지만, 한 세대가 품질 기준을 넘어서면 갑자기 하나의 AI "직원"이 팀의 다섯 명의 인간을 대체하게 됩니다.
노동 시장은 그런 충격을 유연하게 흡수하지 못합니다. 서구 경제는 5% 실업률을 정상으로 여기고 8-9%는 위기로 간주합니다. 몇 년 안에 15%로 급증하고, 이는 부채에 시달리는 대학 교육을 받은 근로자들 사이에서 집중된다면, 이는 “혼란”이라기보다는 정부, 은행, 그리고 빅 테크 자체에 대한 정당성 테스트처럼 보입니다.
2026년의 전환점이 AI CEO들을 침묵하게 만들고 있습니다. 그들은 이 전환점을 촉발할 에이전트를 구축하기 위해 스피드를 내고 있지만, 다른 이들이 방금 일어난 일을 깨달을 때의 반발을 조용히 준비하고 있습니다.
억만장자의 벙커 정신을 해독하다
실리콘 밸리에서 벙커 이야기는 몇 년 전부터 농담이 아니게 되었습니다. 샘 알트먼은 총기, 금, 요오드화칼륨, 항생제, 그리고 비상 사태를 대비해 빅 서에 있는 한 조각의 땅을 준비하고 있다고 평범하게 인정했습니다. 그가 "강화된 지하실"이라고 부르는 공간은 벙커와 매우 흡사합니다. 마크 저커버그는 그의 1,400에이커 규모의 카우아이 단지를 독립된 요새로 탈바꿈시키고 있으며, 광범위한 지하 시설과 수억 달러에 달하는 가격표가 붙어 있는 것으로 알려져 있습니다.
일리아 수츠케버(Ilya Sutskever)는 불안을 한 단계 더 진전시킵니다. 그는 오픈AI를 떠나기 전, "우리는 반드시 AGI를 출시하기 전에 벙커를 지을 것입니다."라고 말했다고 전해지며, 물리적인 보호소를 제품 로드맵의 일환으로 간주했습니다. 그의 새 회사 세이프 슈퍼인텔리전스(Safe Superintelligence Inc.)는 하나의 목적을 위해 존재합니다: 슈퍼인텔리전스를 구축하고 그것이 세상을 파괴하지 않도록 하는 것입니다.
이것은 일반적인 억만장자 생존 준비자 코스프레가 아닙니다. 더글라스 러시코프의 “부자들의 생존”에서 다루어진 보도는 초부유한 기술 지도자들이 기후 붕괴, 사회 붕괴 또는 AI 주도의 특이점 등을 포괄하는 "사건"에 대해 집단적으로 집착하는 비공식 세션을 설명합니다. 그들의 작업 가정은: 재앙은 피할 수 없지만, 충분한 돈, 보안 계약자, 그리고 강화된 콘크리트를 통해 탈출할 수 있다는 것입니다.
AGI 위험은 그러한 세계관에 잘 맞아떨어진다. 소수의 기업들이 곧 모든 인간보다 더 똑똑한 시스템을 통제하게 될 것이라고 믿는다면, 그 시스템들이 대량 실업을 초래하거나, 초정밀 타겟팅된 선동으로 민주주의를 불안정하게 만들거나, 생물무기를 설계하는 데 도움을 줄 수 있다는 것도 믿어야 한다. Anthropic의 다리오 아모데이가 제시한 시나리오처럼 10–20%의 실업 충격이 발생한다면, 수백만 명의 새로 화가 나고 새로 일자리를 잃은 사람들이 누군가를 비난할 대상을 찾게 될 것이다.
벙커는 그 두려움의 물리적 형태가 된다. 그들은 안전 메모보다 더 직설적으로, 내부자들이 AI가 너무 잘못될 수 있다고 생각하고 그로 인해 결과물로부터 실제로 숨을 필요가 있을지 모른다고 말한다. 그 결과물이 불한당 초지능처럼 보이든, 공급망 실패 이후의 식량 폭동처럼 보이든, 아니면 일자리가 GPU로 사라져 버린 것에 화가 난 군중처럼 보이든지 관계없이 말이다. 그 분노가 얼마나 빨리 쌓일 수 있는지 느끼고 싶다면, 포춘지의 기사 “AI가 노동력을 줄이고 있으며, 전 구글 임원은 CEO들이 너무하다고 말한다”를 읽어보라.
함께 보면, 수츠케버의 오롯이 집중한 스타트업, 알트먼의 강화된 안전 구역, 그리고 저커버그의 섬 요새는 하나의 패턴을 형성합니다. 최전선에 있는 사람들은 순조로운 착륙에 베팅하고 있지 않습니다; 그들은 자신들이 만드는 미래가 그들에게 등을 돌릴 경우를 대비해 조용히 콘크리트를 붓고 있습니다.
'AI 혐오'의 상승세
트위터에서 AI 관련 해시태그 아래로 5분만 스크롤하면 분위기가 “멋진 새 장난감”보다 “디지털 집주인”에 가깝게 느껴진다. OpenAI, Google 및 Meta의 제품 출시 관련 답글들은 마치 파업 대열처럼 읽힌다: “내 일을 빼앗고 있어요,” “우리를 자동화하는 걸 축하해요,” “우리가 굶주리는 동안 보너스를 즐기세요.” 바이럴 게시물들은 AI를 “서비스로서의 표절” 또는 “GPU를 위한 석탄 채굴”이라고 부르며 수십만 개의 좋아요를 받는다.
소음 속에서, 몇 가지 주제가 알고리즘적 정밀도로 반복된다. 사람들이 가장 먼저 두려워하는 것은 직업 대체이다: 콜센터 직원, 카피라이터, 일러스트레이터, 법률 보조원, 심지어 주니어 엔지니어들조차 ChatGPT와 Midjourney와 같은 도구들이 그들의 경력에서 "초급" 단계의 일자리를 빼앗아가는 것을 지켜보고 있다. 다리오 아모데이가 AI로 인해 실업률이 1~5년 내에 10~20%까지 상승할 수 있다고 경고할 때, 그 수치들은 이미 해고 스프레드시트로 가득 찬 타임라인에 영향을 미친다.
가치가 떨어진 창의성은 두 번째 분노의 물결을 일으킨다. 예술가들은 자신의 작품이 훈련 데이터셋에서 AI가 생성한 모작과 나란히 비교된 이미지를 게시하며 이것을 도둑질이라고 부른다. 작가들은 아마존, 킨들, 그리고 뉴스 집계 사이트에 SEO 쓰레기와 AI 스팸이 넘쳐나면서 인간의 창작이 값싸고 무한한 콘텐츠로 변해버리는 것을 보고 있다.
그 다음에는 기후와 인프라에 대한 반발이 이어진다. 데이터 센터의 전력 소모와 물 사용량에 대한 차트가 돌며 AI 기업들이 경영진이 대화형 챗봇을 시연하기 위해 메가와트와 지하수를 낭비하고 있다고 비난한다. 비평가들은 대형 모델을 “비트코인 2.0”으로 묘사하며, 주주들에게 주로 혜택이 돌아가는 투기적 이익을 위한 막대한 환경 비용을 강조한다.
문화적으로, AI는 기이한 신기함에서 일상적인 위협으로 변화했습니다. 기술 분야 외부의 사람들에게 AI는 이제 다음과 같은 모습으로 나타납니다: - 해고 이메일 - 고장 난 고객 지원 전화 - 아이들이 이미 사용하는 도구를 금지하는 학교
그 변화는 AI CEO들을 번개를 맞는 표적으로 만든다. 각 키노트, 팟캐스트, 또는 트윗은 임금, 임대료, 기후, 그리고 불평등에 대한 분노의 대상이 되며, 이는 AI 이전에 존재했지만 이제는 공격할 얼굴과 로고가 생겼다.
화이트칼라 대량 해고가 시작됐다.
화이트칼라 근로자들은 이미 타격을 느끼고 있습니다. 콜센터 인력 파견 회사들은 고객들이 라이브 상담원을 두 자릿수 퍼센트로 줄이고 있다고 보고하고 있으며, 기업들이 60~80%의 문의를 사람이 보기 전에 처리하는 AI 챗봇을 도입하고 있습니다. 은행, 항공사, 전자상거래 대기업들은 조용히 “AI 우선 지원”을 광고하고 있으며, 이는 대개 “급여 지급 인원 감소”로 이어집니다.
고객 서비스는 카나리아입니다. 2023년 골드만 삭스 보고서는 생성적 AI가 전 세계적으로 3억 개의 정규직 업무에 해당하는 작업을 자동화할 수 있다고 추정했습니다. 사무직 및 행정 지원 직무가 가장 큰 위험에 처해 있습니다. AI와 노동력에 관한 상원 보고서는 일상적인 전화 및 채팅 역할이 수십 년에 걸쳐 서서히 감소하는 것이 아니라 “급격한 축소”에 직면해 있다고 경고했습니다.
카피라이터와 콘텐츠 마케터가 다음 타겟이 되고 있습니다. 미디어 및 광고 업계 insiders는 클라이언트들이 ChatGPT와 Midjourney와 같은 도구를 도입한 후 프리랜서 예산을 50~70% 삭감할 것을 요구하고 있다고 공개적으로 이야기합니다. 한 마케팅 에이전시 CEO는 20명의 계약자를 두 명의 편집자로 대체하고 AI 프롬프트와 템플릿을 관리하는 방식으로 설명했습니다.
초급 수준의 코딩은 한때 중산층으로 가는 안전한 진입로로 여겨졌으나, 이제 그 모습이 불안정해 보입니다. GitHub의 자체 데이터에 따르면 Copilot은 지원되는 언어에서 새로운 코드의 40–60%를 생성할 수 있으며, 대기업들은 "AI 지원 개발"을 중심으로 팀을 재편성하여 선임 엔지니어가 더 적은 수의 주니어 엔지니어와 함께 더 많은 일을 할 수 있게 하고 있습니다. 여러 소프트웨어 회사들은 조용히 대학 졸업자 채용을 동결하는 한편, 내부 코드 생성 플랫폼에 대한 투자를 확대하고 있습니다.
최근의 기술 분야 해고는 단순한 “거시경제적 역풍”에 국한되지 않습니다. 메타, 구글, 아마존, 마이크로소프트는 2022년 이후 수만 개의 인원 감축을 발표하면서 동시에 AI 인프라 및 모델 개발에 대한 대규모 투자를 약속했습니다. 기업들이 채용, 지원 및 중간 관리직을 줄이는 한편 GPU 예산을 늘리는 것은 인력 수보다 AI 기반의 효율성에 대한 장기적인 베팅을 하고 있다는 신호입니다.
낙관론자들은 "AI가 파괴하는 일자리보다 더 많은 일자리를 창출할 것이다"라고 계속 말하지만, 초기 결과는 불균형하게 보입니다. 골드만 삭스의 분석은 AI 거버넌스, 엔지니어링 및 데이터 작업에서 새로운 역할을 예상하고 있지만, 이는 현재 위험에 처해 있는 수백만 개의 사무직, 서비스직 및 주니어 전문직에 비해 매우 전문화된 소규모 틈새 시장입니다. 해고된 고객 지원 직원이나 카피라이터에게 "프롬프트 엔지니어"는 현실적인 다음 단계가 아닙니다.
구직 사이트와 실적 발표에서 나온 증거는 하나의 패턴을 보여줍니다: 기업들은 AI를 사용해 조직 차트 하단을 비워낸 후, 생산성 향상을 주주들에게 축하합니다. 약속된 새로운 고급 일자리가 감원 속도에 비해 아직까지는 나타나지 않고 있습니다.
기업 사다리가 무너지고 있다
기업 생활은 예측 가능한 각본을 따랐습니다: 수년간 저수준의 업무를 거치고, 상처를 입으며, 결국 실제 의사결정의 단계로 넘어가는 것이었습니다. AI는 그 첫 번째 막을 없애고 있습니다. GPT-4.1급 모델이 메모를 작성하고, 회의를 요약하고, 계약서의 초안을 작성할 때, 주니어 직원들은 권력이 실제로 어떻게 작용하는지를 조용히 가르쳐주던 반복적인 업무를 잃게 됩니다.
컨설팅, 법률, 금융, 그리고 미디어는 모두 이 견습 모델에 의존해왔습니다. 1년 차 분석가들은 데이터를 정리하고 프레젠테이션 자료를 만들었고, 주니어 어소시어트들은 문서 검토를 했으며, 신입 기자들은 보도자료를 다시 썼습니다. 그러나 이제는 대기업의 내부 채택 수치에 따르면 AI 도구가 그 “단순 작업”의 60-80%를 처리하고 있어 새로운 직원들은 이상하게도 공허한 이력서를 가지게 되고 기본적인 작업의 반복이 훨씬 줄어들고 있습니다.
경력 사다리는 피라미드 형태를 가정했습니다: 많은 주니어, 적은 중간 관리자, 그리고 얇은 임원층. AI는 이를 모래시계 형태로 뒤집습니다. 기업은 최상위에 소수의 전문 인력을 유지하고, 하단은 자동화하며, 중간은 계약직 및 기한제 근무자들로 압축하여 현재의 리더들을 대체할 충분한 깊이를 쌓지 못하게 합니다.
이는 불편한 질문을 제기합니다: 2026년에 초급 인재 풀이 사라진다면, 2035년에 누가 파트너, 부사장 또는 편집장이 될 수 있을까요? 당신은 훈련하지 않은 것을 승진시킬 수 없습니다. 정당한 조사도 하지 않고, 새벽 3시에 라이브 시스템을 디버깅해본 적이 없으며, 화난 고객과 함께 방에 앉아본 적이 없는 세대가 결국 수십억 달러의 결정을 내리게 될 것입니다.
단기적으로 CFO들은 마진을 선호합니다. 장기적으로, 이사회는 경험 있는 인적 리더십이 심각하게 부족한 조직을 상속받게 됩니다. Harvard Business Review는 이미 2025년 CEO 이직률 증가 이유와 같은 기사에서 경영진 이직률 급증을 추적하고 있지만, 진짜 절벽은 전투 경험이 풍부한 운영자들이 충분하지 않을 때 발생합니다.
일부 기업은 조용히 기존의 전문 지식을 일회성으로 수확하고 있다고 인정합니다. 고위 직원들은 자신의 후임자를 대체할 모델을 훈련시키며, 사람 대신 벡터 데이터베이스에 그들의 기관 기억을 담습니다. 고위 직원들이 은퇴하거나 탈진하게 되면, 회사는 판단을 모방할 수는 있지만 잘못의 결과를 실제로 경험하지는 않은 AI에 의존하게 될 것입니다.
'그 사람이 필요한가?'
이제 냉정한 수학이 이사회에서 지배하고 있다. 에마드 모스탁은 이를 솔직하게 표현한다: 모든 경영진이 곧 "저 인간이 필요한가?"라고 물을 것이다. 왜냐하면 프론티어 모델이 비용의 일부로 무려 80-90%의 일을 해낼 수 있고 인사 리스크는 없기 때문이다.
스프레드시트에서 AI 직원은 무적처럼 보입니다. 24시간 내내 작동하며, 결근하지 않고, 즉시 1부터 10,000까지 복제할 수 있으며, 중견 전문가가 전부 포함된 경우 시간당 $30에서 $70의 비용이 드는 대신 API 호출로 몇 센트에서 몇 달러 정도의 비용이 듭니다.
부채는 인적 측면에서 쌓입니다: 의료비, 급여세, 관리자, 사무실 공간, 법적 위험, 그리고 끊임없이 존재하는 이직 위험. 한 AI 에이전트가 3명의 고객 지원 직원이나 2명의 주니어 개발자를 대체할 수 있는 항목을 바라보는 CFO에게 "윤리적" 선택은 분기 실적 발표보다 지고 맙니다.
이것은 가설이 아닙니다. 콜센터는 이미 60–80%의 티켓을 사람이 보기도 전에 처리하는 챗봇을 배포하고 있습니다. 마케팅 팀은 조용히 프리랜서를 텍스트-이미지 및 카피 모델로 대체하고 있으며, 로펌은 AI를 사용해 처음 해보는 수습 변호사들이 밤새 고민하며 작성하던 계약서를 작성하고 있습니다.
AI 에이전트가 도구를 연결하고, 웹을 탐색하며, 워크플로우를 처음부터 끝까지 실행할 수 있게 되면, 질문은 “보조할 것인가, 대체할 것인가?”에서 다음으로 바뀝니다:
- 1우리는 책임과 이미지 관리를 위해 몇 명의 인간을 유지하고 있습니까?
- 2어떤 역할이 반드시 법적 또는 도덕적 책임을 요구합니까?
- 3모델이 10배의 성과를 낼 때 급여를 어떻게 정당화할 수 있을까요?
그 경제적 논리는 고용주-직원 관계를 재구성합니다. 근로자는 장기적인 투자에서 벗어나 규제, 브랜드 안전성 또는 기술이 아직 완벽하지 않기 때문에 유지되는 "유산 인프라"로 전환됩니다.
수백만 개의 일자리에 걸쳐 적용된 동일한 논리는 불안의 원동력이 된다. 사람들이 이익과 생산성이 급등하면서 임금은 정체되고 기회는 사라지는 것을 보게 되면, 트위터에서 이미 드러난 분노는 보다 조직적인 형태로 굳어지며, 다루기 훨씬 어려운 상황이 된다.
CEO의 불가능한 줄타기
AI 보스들은 이제 역설적인 상황에 놓여 있다: 이기기 위해서는 자신들을 공공의 악당으로 만들 수 있는 기술을 가속화해야 한다. 그들은 수십억 달러를 모금하고, 새로운 모델을 출시하며, "생산성 향상"을 약속하지만, 그런 향상이 종종 지원, 마케팅 및 주니어 엔지니어링 역할에서의 고용 동결, 재조직 및 조용한 해고로 이어진다는 사실을 잘 알고 있다.
그 역동성은 새로운 종류의 경영 리스크를 만들어냅니다. 다리오 아모데이가 AI가 1-5년 내에 실업률을 10-20%로 증가시킬 수 있다고 경고할 때, 그는 단순히 거시 경제 데이터를 예측하는 것이 아닙니다; 그는 그 변화로 이익을 보는 사람들에게 표적을 그리는 것입니다. 경력을 잃은 사람들은 추상적인 “시장의 힘”에 분노하지 않고, 얼굴에 분노합니다.
AI CEO들은 자신들이 그 얼굴이라는 것을 점점 더 잘 이해하고 있다. 그들의 이름은 해고 통지서, 기조 연설 라이브 스트림, 그리고 “인원 효율성”을 기념하는 화려한 투자자 프레젠테이션에 적혀 있으며, 수천의 화이트칼라 근로자들은 자신의 산업이 축소되는 모습을 지켜보고 있다.
그러한 환경에서 개인 안전은 이론적인 항목이 아니라 일상적인 계산이 됩니다. 기술 리더들은 이미 정치인과 공공 보건 관계자들이 원치 않는 변화의 상징이 되었을 때 어떤 일이 발생하는지를 주의 깊게 지켜보고 있습니다: 개인 정보 유출, 스토킹, 스와팅, 그리고 드물게는 신체적 공격까지.
AI 경영진은 이제 문화에서 감정적 위치를 차지할 수 있는 그럴듯한 경로를 보고 있습니다. 그들은 단순히 앱을 개발하는 것이 아니라, 한 번의 제품 주기로 카피라이터, 법률 보조원, 주니어 개발자의 미래를 지우는 레버를 당기는 것으로 인식되고 있습니다.
두려움은 단순히 일반화된 "반기술" 감정이 아닙니다. Twitter와 다른 플랫폼에서 AI에 대한 혐오감이 급증함에 따라, 한 CEO가 불법법의 상징이 되는 것처럼 자동화의 상징이 될 가능성이 구체적으로 존재합니다. 이러한 책임의 개인화는 컨퍼런스, 팬보이 패널, 공개 질의응답을 PR 기회로 보지 않고 오히려 보안 위험으로 인식하게 만듭니다.
그래서 낮은 프로필은 더 이상 편집증처럼 보이지 않고 프로토콜처럼 보이기 시작합니다. 대학 강연을 취소하세요. 축제 무대를 건너뛰세요. 공개 타운홀 미팅을 엄격하게 통제된 라이브 스트리밍, 사전 검토된 질문, 그리고 법률 및 보안 팀의 검토를 받은 기업 블로그로 대체하세요.
어둡게 가는 것은 모델을 느리게 하지 않는다; GPU는 여전히 비밀 데이터 센터에서 조용히 작동하고 있다. 그것이 하는 것은 인간과 기계를 분리하는 것이다 — 의사 결정자를 대중으로부터 보호하여, 그 결정들이 점점 더 자신의 미래를 파괴하고 있다고 믿고 있는 대중으로부터 그들을 차단하는 것이다.
정부가 이것을 막을 수 없는 이유
규제는 입법의 속도로 진행되지만, AI는 GPU 클럭 속도로 움직입니다. 입법자들은 여전히 인공지능의 의미에 대해 논쟁하고 있는 반면, OpenAI, Google, Meta, Anthropic은 6~12개월 주기로 최전선 모델을 출시하고 있습니다. 법안 초안이 위원회를 통과할 무렵, 관련 기술은 이미 한 세대를 뛰어넘은 상태입니다.
정부는 기본적인 가시성조차 부족합니다. 가장 유능한 모델들 중 다수는 API 장벽 뒤나 개인 데이터 센터 내부에서 운영되며, 규제 기관이 스크랩할 수 있는 공개 웹사이트에 있지 않습니다. 여전히 은행 알고리즘을 감사하는 데 어려움을 겪고 있는 기관들은 이제 수조 개의 토큰으로 학습된 불투명한 다중 모달 시스템에 직면해 있습니다.
지정학은 가속 페달을 강하게 밟게 한다. 인공지능 연구에 브레이크를 밟는 나라는 경쟁자에게 경제 및 군사적 권력을 양도할 위험이 있다. 워싱턴은 베이징의 대규모 인공지능 및 감시 기술 자금 지원에 대해 우려하고 있으며, 베이징은 미국의 클라우드 제공업체, 반도체 제조사, 방산 계약업체들이 물류에서 무기까지 모든 분야에 인공지능을 적용하는 모습을 주시하고 있다.
어떤 강대국도 먼저 양보하고 싶어 하지 않는다. 글로벌 협력의 시도는 검증 도구가 없는 핵무기 회담과 닮았으며, 어떤 위성도 개인 GPU 클러스터에서 진행되는 훈련 과정을 볼 수 없다. 엔비디아의 고급 칩에 대한 수출 통제조차도 결심한 국가와 기업의 행보를 멈추게 하지는 못하고 단지 늦출 뿐이다.
국내 정치가 이 분야를 더욱 기울어지게 한다. 대형 기술기업들은 이제 미국에서 연간 수천만 달러를 연방 로비에 지출하고 있으며, 이는 제약 및 에너지 대기업들과 경쟁하고 있다. 이 로비스트들은 책임감 있게 들리는 "위험 기반" 프레임워크를 추진하지만, 새로운 모델의 신속한 배포를 위한 충분한 여지를 남긴다.
법률 제정자들은 변화하는 목표에 직면해 있습니다. 그들은 다음과 같은 모든 사항을 법제화해야 합니다: - 기초 모델 - 오픈 소스 체크포인트 - 에이전틱 시스템 - 합성 미디어
각각 편향과 사기, 노동 충격 및 국가 안보와 같은 다양한 위험을 안고 있습니다. 지나치게 광범위한 규정은 기본 소프트웨어를 범죄화할 위험이 있고, 너무 좁은 규정은 1년 이내에 무용지물이 됩니다.
결과: 기업 연구소는 무엇을 구축하고, 배송하며, 오픈 소스할지를 결정함으로써 효과적인 정책을 조용히 설정합니다. 이사회는 이미 이러한 환경을 탐색할 수 없는 CEO를 교체하고 있습니다; 2025년 6월 CEO 이탈 속도가 빨라지고; 이사회는 임시 리더십 실험 중을 참고하세요. 향후 10년 동안, 공공 정책은 AI의 궤적에 주로 반응할 것이지, 그것을 정의하지는 않을 것입니다.
다가오는 혼란을 헤쳐 나가기
불안한 지식 근로자들은 두 가지 상충되는 이야기를 계속 듣고 있다: AI가 그들의 직업을 없앨 것인지, 아니면 그들을 초인적으로 생산적으로 만들 것인지. 둘 다 사실일 수 있다. 모델이 계약서를 작성하고, 로고를 디자인하며, 런칭 이메일을 1분 안에 작성할 수 있을 때, 질문은 “그것이 내 일을 할 수 있을까?”에서 “관리자가 여전히 우리 몇 명이 필요한가?”로 바뀐다.
그 세상에서의 생존은 "코딩을 배우는 것"처럼 보이지 않습니다. 코딩은 바로 LLM이 아침 식사로 삼는 것입니다. 부족한 것은 혼란스러운 현실을 아우르는 기술입니다: 문제를 정의하고, 트레이드오프를 고려하며, 회의적인 사람들을 설득하여 행동하게 만드는 것입니다.
비판적 사고는 이력서의 클리셰에서 벗어나 방어의 해자로 변모합니다. 누구나 ChatGPT에 10가지 아이디어를 요청할 수 있지만, 그중 어떤 것이 법률, 재무, 그리고 화가 난 고객층과의 접촉을 견뎌낼지를 결정할 수 있는 사람은 훨씬 적습니다. 프리미엄은 AI 출력을 심도 있게 분석하고 숨은 가정을 찾아내며 "이것은 그럴듯해 보이지만 운영을 붕괴시킬 것"이라고 말할 수 있는 사람들에게로 이동합니다.
복잡한 문제 해결은 가치 사슬을 따라 올라갑니다. AI는 한정된 범위 내에서 최적화할 수 있지만, 그 범위 자체가 잘못되었을 때는 어려움을 겪습니다. AI 에이전트 주위에 업무 흐름을 재설계할 수 있는 사람들은 레버리지, 예산 및 채용을 통제할 것입니다.
감정 지능이 인프라로 변합니다. 봇은 공감을 시뮬레이션할 수 있지만, 인원수가 30% 감소한 충격에 빠진 팀 내에서 신뢰를 구축하지는 못합니다. 자동화에 대해 솔직하게 소통하고, 사람들을 재교육하며, 공공의 분노를 수용할 수 있는 관리자들은 모델만큼이나 중요해집니다.
개별적인 적응만으로는 충분하지 않을 것입니다. 다리오 아모데이의 10-20% 실업 시나리오가 발생하면 사회는 구조적인 대응이 필요합니다: 보편적 기본 소득, 임금 보조금 또는 적극적인 일자리 보장 등이 그 예입니다. 핀란드와 캘리포니아의 스톡턴과 같은 곳에서의 실험은 UBI가 정신 건강과 안정성을 개선하는 것으로 나타났지만, AI 시대의 규모에서 검증되지 않았습니다.
짧은 근무 주는 비주류 아이디어에서 협상 카드로 변모할 것이다. 2019년에 세 사람이 하던 일을 단일 AI 보조 근로자가 수행할 수 있을 때, 기업은 두 명을 줄이거나 시간을 단축시키는 선택을 할 수 있다. 프랑스의 35시간 근무제와 영국의 4일 근무 시험은 AI가 포화된 경제를 위한 프로토타입을 제공하지만 청사진은 아니다.
이 모든 것 아래에는 더 어려운 질문이 있습니다: 누가 이익을 소유하는가. 만약 소수의 기업이 기초 모델로부터 대부분의 생산성 향상을 차지한다면, 우리는 조 단위의 시장 가치를 가진 세계, 중산층의 공허한 몰락, 그리고 카우아이에 엄격하게 방어된 농장들을 얻게 될 것입니다. 반면 AI를 인프라로 취급하여 세금이 부과되고 규제받으며 널리 공유된다면, 우리는 사라지는 CEO보다 그들을 초월하는 시스템이 더 중요해지는 미래에 대한 기회를 얻을 수 있습니다.
자주 묻는 질문
AI CEO가 정말로 공적인 삶에서 '사라지고' 있는 걸까요?
문자 그대로 사라진 것은 아니지만, 전 Stability AI CEO인 에마드 모스타크와 같은 인물들의 anecdotal evidence에 따르면 많은 AI 리더들이 증가하는 반AI 정서와 일자리 상실에 대한 대중의 불만으로 인해 공개 출연을 취소하고 있다는 이야기입니다.
2026년은 AI 예측에서 어떤 의미가 있나요?
업계 전문가들은 2026년이 AI 모델이 유용한 도우미에서 전체 화이트칼라 업무를 대체할 수 있는 자율 에이전트로 전환되는 잠재적인 전환점이 될 것으로 예상하고 있으며, 이는 중대한 경제적 혼란을 촉발할 수 있다고 경고하고 있습니다.
왜 기술 억만장자들은 은신처를 건설하고 있다고 전해지고 있을까요?
'벙커' 내러티브는 두 가지 우려에서 비롯됩니다: AI로 인한 대량 실업으로 인한 단기 사회 불안과 인류가 통제할 수 없는 인공지능 일반(AGI)을 만드는 것에 대한 장기적인 존재적 위험입니다.
AI에 대한 대중의 반발을 촉발하는 요인은 무엇인가?
이 반발은 대량 실업에 대한 두려움, 창의적 분야의 저하, 데이터와 편견에 대한 윤리적 우려, 그리고 AI가 전반적인 인구의 이익을 희생하면서 주로 소수의 부유한 개인들에게만 혜택을 준다는 일반적인 감정에 의해 촉발되고 있습니다.