OpenAI의 충격적인 비밀

최고의 연구자들이 OpenAI를 탈출하고 있으며, 이들은 회사가 자신의 불리한 연구 결과를 은폐하고 있다고 주장하고 있습니다. 그들은 진실보다 이익을 우선시하는 기업 기계의 실체를 폭로하고 있습니다.

Stork.AI
Hero image for: OpenAI의 충격적인 비밀
💡

TL;DR / Key Takeaways

최고의 연구자들이 OpenAI를 탈출하고 있으며, 이들은 회사가 자신의 불리한 연구 결과를 은폐하고 있다고 주장하고 있습니다. 그들은 진실보다 이익을 우선시하는 기업 기계의 실체를 폭로하고 있습니다.

AI 탄광의 카나리아

AI 세계에 충격이 감돌았다. 여러 연구자들이 OpenAI, 800억 달러 규모의 생성 AI의 상징인 회사에서 조용히 물러났다는 소식이 퍼졌기 때문이다. 이는 인기 있는 스타트업에서의 일상적인 인사이동이 아니었다. 이는 기술 분야에서 가장 선망받는 고용주 중 하나에서의 계획된 퇴출로, 여기서 고위 직원들은 종종 6자리 수의 높은 연봉과 함께 조만간 1조 달러 목표에 도달할 회사의 지분을 확보하고 있다.

이런 퇴사는 경고 신호를 엽니다. 사람들은 거의 사소한 불일치로 그런 돈과 명성을 포기하지 않기 때문입니다. 연구자들이 윤리적 또는 정직성 문제로 떠난다고 말할 때, 이는 더 깊은 갈등을 시사합니다. AI의 위험에 대한 내부 데이터와 회사의 성장 이야기 및 투자자에 대한 법적 의무가 충돌하는 지점입니다.

폭풍의 중심에는 OpenAI 경제 연구팀의 일원인 경제학자 톰 커닝햄이 있습니다. 내부적으로 공유된 그의 작별 메시지에서 커닝햄은 이 그룹이 “실질적인 연구에서 벗어나고 있다”고 경고하며, 기업의 “선전 기구” 역할로 drift 하고 있다고 전했습니다. 이는 Wired와 Futurism에 의해 보도되었습니다.

그의 말은 OpenAI가 마이크로소프트의 130억 달러 지원을 받는 준공공 이익 연구소라는 정교하게 구축된 이미지를 해치기 때문에 심금을 울렸다. 커닝햄의 비판은 내부 연구가 AI가 일자리에 해를 끼치거나 불평등을 심화시키는 결과를 보여주었을 때, 임무가 "발표하고 토론하다"에서 "여론 조작하고 억제하다"로 바뀌었다고 제안했다.

표면적으로는 개인적인 이야기처럼 보일 수 있지만, 이는 곧 투명성과 신뢰의 위기로 확대되었습니다. OpenAI가 일자리 손실을 경시하고 혼란을 "일시적이거나 관리 가능한" 것으로 묘사하며 규제나 반발을 촉발할 수 있는 연구 결과의 공개를 회피했다는 주장은 명확한 질문을 제기합니다: AI 정책을 형성하는 과학의 이익은 누구의 것인가요?

불투명한 훈련 데이터, 폐쇄된 모델, 그리고 안전성 극복에 대한 비판에 이미 시달리고 있는 산업에서, 이러한 퇴직은 AI 탄광에서의 카나리아처럼 기능합니다. 주요 연구소의 내부 관계자들이 더 이상 자신의 연구 파이프라인의 신뢰성을 믿지 못한다면, 그 여파는 한 회사의 인사 기록을 훨씬 넘어 확산됩니다.

'AI 선전 기구'?

일러스트: 'AI 선전 기구'?
일러스트: 'AI 선전 기구'?

OpenAI 내부 경제 그룹의 고발은 단순한 직장 내 분쟁을 넘어 더 깊숙이 파고든다. Wired에 보도된 이별 메시지에서 경제학자 톰 커닝햄은 동료들에게 경제 연구팀이 “실질적인 연구에서 벗어나고 있다”고 경고하며, 대신 회사의 “선전 부서”처럼 행동하고 있다고 전했다. 여전히 준학문적 분위기로 거래되고 있는 연구소로서는, 이는 과학적 신뢰성에 대한 직접적인 타격으로 읽힌다.

Wired에 인용되고 Futurism에 요약된 네 개의 "상황에 가까운" 출처에 따르면, OpenAI는 어떤 경제적 발견이 공개되는지 점점 더 선별적으로 다루고 있습니다. ChatGPT와 GPT-4 같은 도구로 인한 생산성 향상을 강조하는 내부 연구는 주목받는 반면, 해고된 근로자나 정체된 임금을 보여주는 연구는 allegedly 지연되고 있습니다. 그 결과: 부수적 피해를 제거한 순수한 성장 엔진으로서의 AI에 대한 선별된 이야기입니다.

그 출처들은 OpenAI가 이제 경제적 결과를 정책적 관점에서 필터링한다고 주장합니다: 이 논문이 규제를 초대할 것인지, 대중의 반발을 초래할 것인지, 아니면 기업의 채택을 저해할 것인지? 만약 그 대답이 '예'라면, 출판은 불가능해질 수 있습니다. 한 출처는 부정적인 노동 시장 결과가 "임시"의 혼란이나 "관리 가능한" 붕괴로 재구성되는 패턴을 설명했으며, 이는 동료 심사 저널보다 투자자 프레젠테이션에 더 가까운 언어입니다.

그 변화는 원래 과학적 단위로 생각되었던 것을 기업 업무에 더 가까운 것으로 바꾸어 놓습니다. 자동화, 불평등 및 산업 충격에 대한 가설을 테스트하는 대신, 팀은 점점 더 미리 결정된 서사를 지원하게 됩니다: AI는 GDP를 증가시키고, 노동자를 돕고, 주로 새로운 일자리를 창출한다는 것입니다. 내부 경제학자들이 긍정적인 측면을 강조하고 부정적인 측면은 감추라는 압력을 느낄 때, “연구”는 탐구의 도구가 아니라 옹호의 도구가 됩니다.

OpenAI의 리더십은 이러한 방향 전환을 인식하고 있는 것으로 보입니다. Wired에서 인용된 메모에서, 최고 전략 책임자 제이슨 권은 회사가 “어려운 주제”에 대한 출판뿐만 아니라 “솔루션 구축”도 해야 한다고 주장하며, OpenAI는 “단순한 연구 기관이 아니라 세계에서 활동하는 주체”라고 강조했습니다. 이러한 프레임은 연구 방향을 회사의 역할을 “AI 도입의 선두 주체”로 방어하는 결과물로 이끄는 것을 정당화합니다.

이사들, 내부 메모, 비공식적인 이야기들을 종합해 보면 한 가지 간단한 주제가 드러납니다: OpenAI는 AI 기술 자체를 형성하는 것만큼이나 경제적 이야기를 적극적으로 형성하고 싶어합니다.

열린 연구에서 닫힌 문으로

OpenAI는 2015년에 비영리 단체로 시작하여 가장 강력한 시스템을 오픈 소스화하고 “인류 전체에 이롭게 하겠다”고 약속했습니다. 공동 창립자들은 연구를 자유롭게 발표하고 코드를 공개하며 고급 AI에 대한 집중된 권력을 피하는 것에 대해 이야기했습니다. 10년이 채 되지 않은 현재, 이 조직은 GPT-4와 같은 독점 모델과 폐쇄형 API를 기반으로 한 엄격하게 통제되고 이익이 제한된 대기업으로 운영되고 있으며, 마이크로소프트는 약 130억 달러를 투자하고 독점 접근 계약이 깃허브 저장소를 대체하고 있습니다.

그 변화는 단순히 돈에 관한 것이 아니다; 그것은 누가 질문을 할 수 있고 어떤 대답이 안전하게 공개될 수 있는가에 관한 것이다. 연구자들은 대규모 이주, 악화된 노동 조건, 규제 촉발과 같은 하향 리스크를 강조하는 작업이 찬란한 생산성 사례 연구보다 더 큰 마찰을 겪는 메시지 규율의 증가하는 문화를 설명하고 있다. Wired의 OpenAI 직원이 퇴사하며 회사의 경제 연구가 AI 옹호로 돌아서고 있다고 주장한 보도는 내부 반대파들이 OpenAI의 "개방" 부분이 NDA 및 PR 검토 뒤로 후퇴하는 것을 어떻게 지켜봤는지를 기록하고 있다.

최고 전략 책임자 제이슨 권의 내부 메모는 새로운 자세를 명확히 했다. 권은 OpenAI가 "솔루션을 구축"하고 "세계의 선도적인 주체"로 행동해야 하며, 단순히 불편한 연구 결과를 발표하는 연구 기관이 되어서는 안 된다고 주장했다. "OpenAI는 단순한 연구 기관이 아니라 세계의 행위자"라는 그의 발언은 전환점을 암시했다: 이제 학문은 전략의 하류에 위치하고 있으며, 나란히 있지 않다.

경제 연구 그룹 내에서 그 프레이밍은 지침처럼 들어왔다. 만약 OpenAI가 “선도적인 주체”라면, 자동화, 임금 억압, 지역 일자리 손실에 관한 모든 논문은 규제를 초대하거나 채택 속도를 늦출 수 있는 정치적 행위로 간주된다. 연구자들은 인센티브가 명확하다고 말한다: - 생산성 향상 강조 - 혼란을 “일시적” 또는 “관리 가능”으로 재구성 - 성장 내러티브를 복잡하게 만드는 연구는 숨기거나 지연

정책 연구원 마일스 브룬데이지는 이전에 떠났으며, 중요한 주제에 대해 출판하는 것이 "어렵게" 변했다고 설명했습니다. 그의 발언은 공개할 수 있는 내용과 그것이 어떻게 구성될지에 대한 충돌 이후에 퇴사한 최소 두 명의 경제 연구원의 이야기에 부합합니다. 이제 OpenAI는 객관적인 탐구를 추구하는 연구소라기보다는 회사의 상업적 및 지정학적 야망을 촉진하는 연구만이 살아남는 기술 플랫폼처럼 보입니다.

안전 이견의 패턴

OpenAI의 경제 연구 그룹에서의 단일 사직은 일시적인 현상으로 보일 수 있습니다. 그러나 안전에 초점을 맞춘 퇴사자 목록이 늘어남에 따라 이는 패턴처럼 보이기 시작합니다. 강력한 모델의 부정적인 측면을 테스트하기 위해 고용된 사람들이 계속해서 회사를 떠나고 있으며, 그들은 종종 자신의 일이 더 이상 회사의 나쁜 뉴스에 대한 수용력과 맞지 않다고 불평하고 있습니다.

올해 초, OpenAI는 고프로파일 슈퍼얼라인먼트 팀을 조용히 해산했습니다. 이 팀은 한때 샘 올트만이 인공지능 일반 지능을 안전하게 조정하기 위한 회사의 대담한 목표로 제시했던 그룹입니다. 일리야 수츠케버와 얀 라이케가 공동 리더로 활동하던 이 팀은 20%의 OpenAI 컴퓨팅 자원을 지원받아 "초인간적" AI 정렬을 4년 안에 해결할 예정이었습니다. 그러나 2024년 중반까지 두 리더는 떠났고, 팀은 해체되었으며, 그들의 임무는 더 많은 제품 관련 그룹으로 흩어졌습니다.

전직 정렬 연구원 윌리엄 손더스는 안전 시스템과 레드 팀 작업에 참여한 후, 자신의 의견을 명확히 하였다. 그는 OpenAI의 리더십이 항상 기본적인 안전 작업보다 “화려한 제품”을 우선시하며, 눈에 보이는 기능을 출시한 팀에게 보상을 주는 반면, 장기적인 연구는 영향력과 자원을 허락받지 못하고 있다고 말했다. 그의 비판은 안전이 성장에 “뒤처져” 있다는 라이케의 공개 불만과 일치한다.

톰 커닝햄의 경제 연구가 “선전 기구”가 되었다는 비판과 함께 이 퇴사는 조직 차트 한 구석의 고립된 갈등이 아닌, 체계적인 긴장을 나타냅니다. 다음 분야에서 일하는 사람들: - 장기적 정렬 - 사회적 및 경제적 영향 - 거버넌스 및 정책

출시 일정과 수익 목표에 대한 동일한 중력적 끌림을 설명합니다.

슈퍼얼라인먼트의 해체는 특히 중요합니다. 왜냐하면 OpenAI가 그것을 존재론적 위험을 진지하게 받아들이고 있다는 증거로 사용했기 때문입니다. 핵심 안전 팀이 출범 후 2년도 채 되지 않아 사라지고, GPT-4.1, GPT-4o, 그리고 새로운 멀티모달 기능들이 끊임없이 출시되는 동안, 회사 내부의 메시지는 명확해집니다: 안전은 성장 엔진이 아니라 비용 센터입니다.

이는 퇴사자들로부터 드러나는 “치명적인 비밀”입니다. OpenAI는 여전히 AGI 안전성에 대해 이야기하지만, “속도를 늦추라”고 말하라고 고용된 사람들은 자신의 진짜 일이 회사를 더욱 가속화하는 것이라는 사실을 계속 깨닫고 있습니다.

구명보트가 부족한 타이타닉

삶의 보트가 부족한 타이타닉 그림
삶의 보트가 부족한 타이타닉 그림

한 전 OpenAI 안전 연구원은 최근 회사의 야망에 맞는 은유를 찾았습니다: 타이타닉. 내부 대화에서 그들은 OpenAI를 “침몰하지 않는” 인공지능 일반체를 만들기 위해 전속력으로 앞으로 나아가는 반짝이는 기술의 경이로움으로 묘사했습니다. 그들이 경고한 문제는 리더십이 구명보트보다는 엔진에 훨씬 더 집중하고 있다는 점입니다.

이 비유에서 AGI는 배입니다: 거대하고 호화롭고 인류 진보의 미래로 대대적으로 마케팅되고 있습니다. 구명보트는 정교하지 않은 요소들—정렬 연구, 남용 방지, 레드팀 시스템, 사용자 보호, 모델이 엉망이 되었을 때의 실제 모니터링입니다. 비평가들은 OpenAI가 선체와 추진력에 수십억을 쏟아붓는 반면, 이러한 안전 장치들은 선택 사항인 갑판 가구처럼 취급하고 있다고 주장합니다.

전 연구원 스티븐 애들러(Steven Adler)는 OpenAI의 접근 방식을 “위험하다”고 지적하며, 유해한 사용자 결과에 대한 주의를 부족하다고 비판했다. 애들러는 모델이 복잡한 현실 세계에서 어떻게 작동하는지를 연구했으며, 단 하나의 프롬프트가 자해 콘텐츠, 표적 괴롭힘 또는 그럴듯한 금융 사기를 드러낼 수 있는 상황을 다뤘다. 그의 우려는 리더십이 이러한 해악을 체계적으로 추적하고 줄이는 것보다 눈에 띄는 능력과 제품 성장을 우선시했다는 것이다.

애들러와 다른 안전 직원들은 종종 빨간 깃발이 익숙한 반응을 맞이하는 문화를 묘사합니다: 지금 배송하고 나중에 수정하거나, 문제를 제품 위험이 아닌 PR 문제로 재구성하는 방식입니다. 내부 비판자들은 수많은 사용자에게 며칠 만에 제공된 GPT-4, GPT-4o 및 새로운 다중 모드 기능과 같은 출시 주기를 지적하면서도, 출시 후 안전 평가가 뒤처지고 있다고 주장합니다. 그 결과는 신중한 항해보다는 미지의 얼음 지역을 빠르게 통과하는 것처럼 보입니다.

타이타닉 은유와 아들러의 비판을 결합하면, 점점 더 자신의 신화에 포획되고 있는 회사를 그려낼 수 있다. OpenAI는 AI에서 “주요 동력”으로 자리 잡고 있으며, 필수적이고 불가피하다고 마케팅하고 있어 속도를 늦추는 것이 거의 이단적으로 느껴진다. 내부 관계자들이 구명보트가 없거나 반쯤 고정되어 있다고 경고할 때, 그들은 특정 기능에 대해 질문하는 것이 아니라, 전진하는 모멘텀을 안전으로 여기는 세계관에 도전하고 있다.

인류적 대비: 급진적 투명성

OpenAI의 비밀 문제가 Anthropic과 비교할 때 더욱 선명해 보인다. Anthropic은 조용한 부분을 공개적으로 말하는 경쟁사로, OpenAI가 직업 손실 및 규제 위험에 대한 내부 발견을 묻었다고 주장되는 반면, Anthropic 임원들은 AI가 대량의 화이트칼라 작업을 자동화하고 기존 경력 사다리를 불안정하게 만들 수 있다고 공식적으로 예측했다.

앤트로픽 CEO 다리오 아모데이는 인터뷰에서 "상당수"의 인지적, 사무적, 전문적인 업무가 이번 10년 동안 자동화의 위협을 받을 수 있다고 여러 번 경고했습니다. 그는 AI 시스템이 오늘날 소프트웨어 엔지니어, 법률 보조원, 고객 지원 담당자, 심지어 일부 관리자들이 수행하는 업무의 많은 부분을 처리하는 시나리오를 설명하며, 이로 인해 수백만의 지식 근로자에게 미치는 파급 효과를 강조했습니다.

그러한 솔직함은 중견 회계사나 주니어 변호사에게는 두렵게 들릴 수 있지만, 대중을 단순한 장애물이 아닌 이해관계자로 대우합니다. 혼란이 클 수 있고, 오랜 시간 지속되며, 정치적으로 폭발적일 수 있다고 공개적으로 언급함으로써, 안트로픽은 다음에 대한 논의를 초대합니다: - 배포 속도를 어떻게 조절할 것인지 - 요구해야 할 안전 및 정렬 기준은 무엇인지 - 대규모 이동이 시작되기 전에 구축해야 할 사회적 보호조치는 무엇인지

OpenAI와 대조적으로, 퇴사한 경제학자 톰 커닝햄은 이 회사가 경제 연구 그룹을 “선전 기구”로 전환하고 규제나 반발을 촉발할 수 있는 연구 결과의 발표를 회피하고 있다고 비난했습니다. Wired의 보도에서는 OpenAI 연구원이 퇴사하며 회사가 진실을 숨기고 있다고 말하다에 요약된 대로, 이 회사가 자신의 발견의 날카로운 모서리를 신중하게 다듬고 있는 모습을 설명합니다.

정책 입안자들은 그 격차를 인식하고 있다. 한 연구소는 "이것이 사무직의 상당 부분을 없앨 수 있습니다. 그 이유와 대응 방법은 이렇습니다."라고 사실상 말한다. 다른 쪽은 생산성 주제와 조심스러운 블로그 포스트에 의존한다. 일자리 대체에 대한 Anthropic의 날카로운 인용이 나올수록 OpenAI의 불투명성이 신중함이 아니라 자기 이익을 위한 메시지 통제로 보인다.

'청사진'은 해결책인가, 아니면 허상인가?

OpenAI는 경제적 세탁 혐의에 대한 답변을 정책 문서 형식으로 발표했습니다. 5월에 회사는 “일에서의 AI: OpenAI의 인력 청사진”이라는 40페이지 이상의 문서를 발행했으며, 이는 연구 요약과 기업 강령이 혼합된 듯한 형식으로 작성되었습니다. 이 문서에서는 AI가 "시간이 흐름에 따라 작업을 어떻게 재편할 것인지"와 OpenAI가 근로자들이 이 과정에서 피해를 보지 않도록 하기 위해 무엇을 하고 있는지를 설명하고 있습니다.

그 주제의 중심에는 OpenAI 아카데미가 있습니다. 이 교육 플랫폼은 회사가 이미 200만 명의 미국인과 연결되었다고 주장하는 곳입니다. 이 청사진은 2030년까지 1천만 명의 미국인이 AI 기술을 향상할 수 있도록 돕겠다고 약속하며, OpenAI 도구에서 교육받은 후보자에 대한 고용주의 "신뢰"를 제공하기 위한 인증을 제공합니다. 별도의 OpenAI 직업 플랫폼은 사람들이 안정성과 장기적인 보안을 제공하는 AI 관련 역할에 연결함으로써 "미래의 노동력을 보장"하는 것을 목표로 하고 있습니다.

종이 위에서는, 이는 그들의 모델이 가속화하는 혼란에 대한 확대된 대응처럼 들립니다. ChatGPT, GPT-4, 그리고 후속 모델들은 이미 카피라이터, 코더, 변호사 보조, 지원 요원들을 위한 작업의 일부를 자동화하고 있으며, 골드만 삭스는 전 세계적으로 최대 3억 개의 정규직이 AI 자동화에 노출될 수 있다고 추정하고 있습니다. OpenAI의 청사진은 이 위험을 암묵적으로 인정하며, 빠른 채택이 “새로운 역할이 나타나기 전에 많은 신규 졸업생들에게 사다리의 첫 번째 단계를 벗어나게 할 수 있다”고 경고하고 있습니다.

이 프로그램들이 그 위협의 규모와 속도를 충족하는지, 아니면 주로 이야기 방패 역할을 하는지에 대한 질문이다. 6년에 걸쳐 1천만 명의 미국인을 교육하는 것은 인상적으로 들리지만, 약 1억 6천7백만 명의 미국 노동력과 수백만 명의 일자리를 몇 개의 제품 주기로 대체할 수 있는 글로벌 플랫폼에 비하면 그렇지 않다. OpenAI가 목표를 달성하더라도, 영향을 받는 대다수의 노동자들은 그 아카데미를 이용할 기회조차 가질 수 없을 것이다.

재훈련은 인간의 속도로 진행되는 반면, AI 배치는 클라우드 속도로 진행됩니다. 기업들은 몇 달 만에 수천 개의 좌석에 걸쳐 GPT 기반 자동화를 배포할 수 있지만, 중견 직원의 의미 있는 재스킬링은 종종 수년이 걸리며 인증 이상의 지원이 필요합니다. 이러한 차이는 청사진이 종합적인 솔루션보다는 OpenAI의 자체 경제학자들이 발표하기 힘들어 했던 보다 어두운 사실들에 대한 홍보 수단처럼 보이게 만듭니다.

조작의 조백억 달러 인센티브

일러스트: 불투명성을 조장하는 조천억 달러의 유인책
일러스트: 불투명성을 조장하는 조천억 달러의 유인책

돈은 마치 기상 시스템처럼 OpenAI 위에 떠 있다. 마이크로소프트로부터 약 130억 달러의 현금과 크레딧을 받은 후, 이 회사는 이제 Windows부터 GitHub Copilot에 이르기까지 다양한 제품의 기반이 되고 있으며, 내부 예측과 투자자들의 이야기는 이미 미래의 조 단위 평가 또는 IPO 규모의 유동성 이벤트에 대한 환상에 빠져 있다.

그 숫자는 매우 구체적인 인센티브 구조를 형성합니다. 만약 OpenAI가 AI를 “관리 가능한” 혼란을 동반한 순 생산성 기적으로 꾸미는 데 성공한다면, 이는 마이크로소프트의 클라우드 논리를 뒷받침하고, 기업 판매를 강화하며, 점점 더 큰 자금 조달 라운드의 정당성을 부여합니다. 그러나 자사 경제학자들이 대규모 일자리 이동, 임금 압축 또는 시스템적 불안정성을 시사하는 데이터를 발표할 경우, 그 서사와 이에 부착된 배수는 흔들리기 시작합니다.

장기 실업의 높은 확률이나 집중된 지역 충격을 보여주는 내부 차트는 단순한 정책 문제에 그치지 않고, 증권 문제로 이어진다. GPT-6가 노동 시장이 적응할 수 있는 속도보다 빠르게 대규모 화이트칼라 작업을 자동화할 수 있다는 신뢰할 만한 주장을 담고 있는 연구는 규제 기관, 노조, 그리고 회의와 독점 금지 소송에서 무기를 삼을 수 있는 회의적인 입법자들이 찾는 바로 그런 종류의 증거이다. 동일한 증거는 OpenAI API에 전체 워크플로를 의존할지 결정하는 Fortune 500 고객의 위험 위원회를 놀라게 할 수도 있다.

그러한 조건 아래에서, 중립적인 분석에서 “선전 부서”로의 주장된 전환은 만화 악당의 변신처럼 보이기보다는 극심한 압박 속에서 나타나는 전형적인 후기 단계 스타트업 행동처럼 보인다. 당신의 자본 테이블과 전략적 파트너가 하이퍼 성장을 기대할 때, 안전하고 “증강된” 업무의 이야기를 전하는 팀에 보상을 주고, 이와 반대되는 데이터를 조용히 묻거나 재구성한다.

내부 반대자들은 바로 그 흐름을 정확히 묘사합니다. Wired의 소식통에 따르면 OpenAI는 일자리 손실을 경시하면서 장미빛 생산성 증가를 강조하고, "규제를 촉발하고 대중의 반발을 일으켜 채택을 둔화시킬 수 있는" 연구의 출판을 피하고 있습니다. AI와 고용에 대한 회귀 분석에서 부정적인 계수가 하나라도 줄어들면 가상의 IPO에서 수십억 달러가 줄어들 수 있는 세상에서 침묵은 합리적이지만 매우 우려스러운 비즈니스 선택이 됩니다.

그 관점에서 볼 때, 경제적 위험 연구의 억압 주장이는 단순한 윤리적 실패가 아니라 거의 모든 정보 비용을 감수하며 배치, 평가, 파트너 만족도를 극대화하도록 구조적으로 잠금된 회사의 예측 가능한 결과처럼 보인다.

‘주변의 적대감’의 대두

생성형 AI에 대한 일반적인 반감이 이제 할리우드 계약부터 교실 정책에 이르기까지 모든 것에 걸쳐 퍼져 있습니다. 영화 각본가, 일러스트레이터, 프로그래머, 콜센터 직원들은 AI를 도구가 아닌 자동 해고 통지서로 바라보게 되었고, 이들은 노조, 소송, 지역 조례를 통해 이에 반대하고 있습니다.

그 적대감은 어디서 비롯된 것이 아니다; 그것은 AI 대기업들이 내러티브를 조작하고 있다는 인식에서 직접적으로 나옵니다. OpenAI 연구원들이 경제적 영향 연구가 조용히 "선전"으로 변모하고 있다고 주장할 때, 이는 공공이 긍정적인 차트만 보고 부정적인 예측은 결코 보지 못한다는 우려가 커지고 있다는 사실을 확인시켜 줍니다.

OpenAI의 경제 연구 사태와 같은 투명성 스캔들은 그러한 의심을 불신으로 굳게 만든다. 회사가 일자리 손실을 과소평가하고, 부정적인 결과를 발표하지 않으며, 혼란을 “임시적이거나 관리 가능한 것”으로 포장했다는 보도는 모든 화려한 인력 “청사진”이 피해 통제처럼 읽히게 만든다.

이것은 페이스북-케임브리지 애널리티카 시대 이후로 형성된 광범위한 테크라시의 맥락과 직접 연결됩니다. 이 이야기는 익숙하고 강한 흡인력을 가지고 있습니다: 비밀스럽고 과대 평가된 플랫폼 회사가 데이터를 축적하고, 나쁜 소식을 숨기며, 규제 기관과 직원들이 따라잡으려 애쓰는 사이 앞서 나가는 구조입니다.

AI는 그 템플릿에 거의 너무 완벽하게 들어맞습니다. 연구소가 마치 규제와 대중의 반발을 피하기 위해 자체 연구를 필터링하는 것으로 보이는 닫힌 마이크로소프트 지원 연구실은 전체 산업을 재편할 수 있는 모델을 쥐고 있으며, 연구 기관보다는 더 높은 이해관계를 가진 빅테크 2.0에 가깝습니다.

각종 고위직 사임이 분위기를 고조시키고 있다. 무거운 여섯 자리 연봉을 포기하고 떠나는 경제 연구자들, 안전 팀의 해체, 그리고 “인류에 대한 위험한 도박”에 대해 경고하는 내부 제보자들 — 이 모든 것은 무언가 위험한 것이 숨겨지고 있다는 감각을 증폭시키고 있다.

그 신뢰 침식이 계속된다면, 반발은 온라인에 그치지 않을 것이다. AI 금지 및 포괄적인 책임 규정에 손을 대고 있는 입법자들은 OpenAI뿐만 아니라 실험을 냉각시키고 기존 기업들을 강화하며, 기술의 유익한 사용을 한 세대 동안 지연시키는 가혹한 규제를 고착시킬 수 있다.

심판의 날: 우리는 더 이상 OpenAI를 신뢰할 수 있을까요?

OpenAI에 대한 신뢰는 한때 기본 설정이었습니다. “모든 인류에게 이익을 준다”는 약속을 하는 비영리 연구소는 모델과 안전 작업을 오픈 소스화하며 AI 분야의 어른처럼 보였습니다. 그러나 이제 톰 커닝햄이 경제 연구팀을 “선전” 작업으로 변질되었다고 비난하고, 여러 안전 및 정책 연구자들이 떠나고 있으며, 잠재적인 조단위 수익을 보호하도록 구조적으로 설계된 회사가 존재합니다.

커닝햄의 주장은 OpenAI가 일자리 손실, 규제 위험 또는 심각한 혼란을 강조하는 연구 결과를 출판하기를 꺼려했다는 보도와 결합될 때 더 큰 충격을 준다. 소식통은 Wired에 내부 분석이 생산성 증가를 강조하는 내용을 남긴 반면, "규제를 촉발"하거나 "공적 반발을 일으킬" 가능성이 있는 연구는 중단되었다고 전했다. 이는 중립적인 필터가 아니라, 기업의 필터이다.

안전 문제에 대한 이탈이 쌓이고 있습니다. 슈퍼얼라인먼트 팀의 구성원들, 장기 리스크 연구자들, 정책 직원들이 지난 18개월 동안 떠나거나 밀려났습니다. 여러 사람들은 안전 작업이 GPT-4, GPT-4o, 그리고 현재 마이크로소프트의 AI 전략을 뒷받침하는 앱 생태계와 같은 제품 출시보다 점점 더 뒤처진다는 데 불만을 표했습니다.

한편, 자금은 모든 것을 왜곡합니다. OpenAI의 이익 제한 구조는 여전히 투자자들이 최대 100배의 수익을 올릴 수 있게 합니다. 마이크로소프트는 이 회사에 100억 달러 이상을 투자하고, ChatGPTCopilot을 Windows와 Office에 통합했으며, 보고된 바에 따르면 약 1,000억 달러에 가까운 가치를 논의하며 미래의 1조 달러 IPO에 대한 숨가쁜 이야기를 나누었습니다. 이처럼 많은 자본이 당신에게 쏠리면 "연구"는 "마케팅 자료"처럼 보이기 시작합니다.

이를 Anthropic과 비교해보면, Anthropic은 적어도 모델 카드, 레드 팀 보고서 및 재앙적 위험에 대한 사고 방식 설명하는 정책 프레임워크를 자세히 발표합니다. Anthropic은 완벽하지 않지만, 기본적으로 설명하는 태도를 가지고 있습니다. 반면 OpenAI의 기본적인 태도는 이제 더 이상 설명하는 것이 아니라 상황을 비틀어 해석하는 것으로 보입니다.

사용자, 규제 기관, 그리고 다른 연구자들은 가혹한 질문에 직면하게 됩니다. OpenAI가 화려한 “직장에서의 AI” 청사진이나 경제적 영향 백서를 발표할 때, 이를 과학으로 받아들여야 할까요, 아니면 단순한 기업 옹호로 간주해야 할까요? 내부 관계자들이 자국의 결과물을 선전으로 부르고 있다면, 회의적이 되는 것은 편집증이 아니라 위생입니다.

안전 주장, 경제적 영향 연구 및 교육 데이터 관행에 대한 의무적이고 독립적인 제3자 감사는 더 이상 선택사항이 아닙니다. 이러한 감사는 노동 시장, 정보 생태계 및 국가 안보를 재편할 수 있는 모델을 발송하는 모든 연구실의 기본 조건입니다. 소셜 미디어에서 자율 규제가 실패했듯이, AI는 그러한 기회를 허용하지 않을 것입니다.

미래의 AI 혁신은 대중이 이를 제공하는 사람들을 얼마나 믿는가에 비해 덜 중요할 것이다. 신뢰가 없다면, 진정으로 유익한 시스템조차도 "주변의 반감"과 정치적 반발의 벽에 부딪힐 것이다. OpenAI의 위기는 단순히 한 회사의 비밀에 관한 것이 아니라, 이 산업이 계속해서 빠르게 발전할 권리를 얻는지에 대한 초기의 국민투표이다.

자주 묻는 질문

경제학자 톰 커닝햄은 왜 오픈AI를 그만두었나요?

그는 내부적으로 OpenAI의 경제 연구팀이 '실질적 연구'에서 벗어나 회사의 '선전 기구'처럼 행동하고, 객관적인 결과보다 AI 옹호를 우선시하고 있다고 주장한 후 퇴사한 것으로 전해졌다.

OpenAI는 무엇을 숨기고 있다는 비난을 받고 있나요?

출처에 따르면 OpenAI는 규제 강화, 대중의 반발, 그리고 채택 속도의 저하를 피하기 위해 AI의 직업 손실과 같은 상당한 부정적 경제 영향을 보여주는 내부 연구를 발표하는 데 주저하고 있다고 합니다.

OpenAI의 슈퍼정렬 팀에 무슨 일이 있었나요?

OpenAI는 장기적인 AGI 안전성에 주력을 두었던 Superalignment 팀을 해산했습니다. 이 결정과 몇몇 주요 인사의 이탈은 회사가 새로운 제품 개발을 우선시하며 안전성을 저버리고 있다는 비판을 불러일으켰습니다.

OpenAI의 AI 위험에 대한 공개 입장은 Anthropic의 그것과 어떻게 다른가요?

OpenAI가 부정적인 영향을 경시하고 있다는 비난을 받는 반면, Anthropic과 같은 경쟁사들은 AI가 상당한 일자리 상실을 초래할 가능성이 높다는 점에 대해 공개적으로 목소리를 내며 투명성에서 뚜렷한 대조를 이루고 있습니다.

Frequently Asked Questions

'AI 선전 기구'?
See article for details.
'청사진'은 해결책인가, 아니면 허상인가?
OpenAI는 경제적 세탁 혐의에 대한 답변을 정책 문서 형식으로 발표했습니다. 5월에 회사는 “일에서의 AI: OpenAI의 인력 청사진”이라는 40페이지 이상의 문서를 발행했으며, 이는 연구 요약과 기업 강령이 혼합된 듯한 형식으로 작성되었습니다. 이 문서에서는 AI가 "시간이 흐름에 따라 작업을 어떻게 재편할 것인지"와 OpenAI가 근로자들이 이 과정에서 피해를 보지 않도록 하기 위해 무엇을 하고 있는지를 설명하고 있습니다.
심판의 날: 우리는 더 이상 OpenAI를 신뢰할 수 있을까요?
OpenAI에 대한 신뢰는 한때 기본 설정이었습니다. “모든 인류에게 이익을 준다”는 약속을 하는 비영리 연구소는 모델과 안전 작업을 오픈 소스화하며 AI 분야의 어른처럼 보였습니다. 그러나 이제 톰 커닝햄이 경제 연구팀을 “선전” 작업으로 변질되었다고 비난하고, 여러 안전 및 정책 연구자들이 떠나고 있으며, 잠재적인 조단위 수익을 보호하도록 구조적으로 설계된 회사가 존재합니다.
경제학자 톰 커닝햄은 왜 오픈AI를 그만두었나요?
그는 내부적으로 OpenAI의 경제 연구팀이 '실질적 연구'에서 벗어나 회사의 '선전 기구'처럼 행동하고, 객관적인 결과보다 AI 옹호를 우선시하고 있다고 주장한 후 퇴사한 것으로 전해졌다.
OpenAI는 무엇을 숨기고 있다는 비난을 받고 있나요?
출처에 따르면 OpenAI는 규제 강화, 대중의 반발, 그리고 채택 속도의 저하를 피하기 위해 AI의 직업 손실과 같은 상당한 부정적 경제 영향을 보여주는 내부 연구를 발표하는 데 주저하고 있다고 합니다.
OpenAI의 슈퍼정렬 팀에 무슨 일이 있었나요?
OpenAI는 장기적인 AGI 안전성에 주력을 두었던 Superalignment 팀을 해산했습니다. 이 결정과 몇몇 주요 인사의 이탈은 회사가 새로운 제품 개발을 우선시하며 안전성을 저버리고 있다는 비판을 불러일으켰습니다.
OpenAI의 AI 위험에 대한 공개 입장은 Anthropic의 그것과 어떻게 다른가요?
OpenAI가 부정적인 영향을 경시하고 있다는 비난을 받는 반면, Anthropic과 같은 경쟁사들은 AI가 상당한 일자리 상실을 초래할 가능성이 높다는 점에 대해 공개적으로 목소리를 내며 투명성에서 뚜렷한 대조를 이루고 있습니다.
🚀Discover More

Stay Ahead of the AI Curve

Discover the best AI tools, agents, and MCP servers curated by Stork.AI. Find the right solutions to supercharge your workflow.

Back to all posts