요약 / 핵심 포인트
그 가라앉는 느낌은 진짜입니다
생성형 AI 환경 전반에 걸쳐 뚜렷한 실망감이 자리 잡았습니다. 여러 플랫폼의 사용자들은 OpenAI의 ChatGPT와 Anthropic의 Claude와 같은 주요 챗봇의 성능과 유용성이 크게 저하되었다고 점점 더 많이 보고하고 있습니다. 한때 더 스마트한 미래를 엿보는 것 같았던 것이 이제는 종종 퇴보처럼 느껴지며, 광범위한 좌절감과 포럼 및 소셜 미디어 전반에 걸친 불만 폭주를 유발하고 있습니다. 허니문 기간은 확실히 끝난 것 같습니다.
이러한 정서는 최근 Anthropic의 최신 플래그십 모델인 Opus 4.7 출시와 함께 구체화되었습니다. 초기에는 큰 홍보와 내부 벤치마크에서 강력한 성능을 보였음에도 불구하고, 이 모델은 곧바로 '끔찍하다'고 묘사하는 많은 사용자들로부터 거센 커뮤니티 반발을 불러일으켰습니다. 이러한 광범위한 불만은 AI 기업들이 성공을 측정하는 방식과 실제 애플리케이션에서 사용자들의 미묘하고 질적인 경험 사이의 중요한 단절을 강조합니다.
전반적으로 모델들은 덜 창의적이고, 더 교훈적이며, 사용자 프롬프트를 진정으로 돕거나 확장하기보다는 '사용자의 입에 말을 넣어주는' 경향이 두드러집니다. 이는 단일 플랫폼에 국한된 문제가 아닙니다. 지난 6-12개월 동안 ChatGPT와 Claude 모두에서 미묘함 감소, 설교적인 어조 증가, 전반적인 유용성 부족에 대한 불만이 꾸준히 제기되었습니다. 사용자들은 한때 강력했던 AI 동반자들이 답답할 정도로 경직되고 도움이 되지 않는다는 것을 발견하고 있습니다.
한동안 이러한 우려들은 고립된 불만처럼 느껴졌고, 주류 AI 담론의 Overton window보다 앞서 있었을 수도 있습니다. 이제 상당수의 사용자들이 공유되고 부인할 수 없는 현실을 인식하고 있습니다. 즉, 그들이 매일 상호작용하는 AI가 명백히 나빠졌고, 종종 기본적인 기대치조차 충족시키지 못한다는 것입니다. 이러한 광범위한 저하는 업계 전반에 걸쳐 시급한 질문을 제기합니다. 이러한 하락이 급속한 개발 및 확장 과정의 우연한 부산물일까요, 아니면 진정한 지능과 유용성보다 다른 지표를 우선시할 수 있는 현재 AI 산업의 인센티브 구조의 예측 가능하고 어쩌면 불가피한 결과일까요?
AI의 'Enshittification'에 오신 것을 환영합니다
작가 Cory Doctorow가 만든 용어인 enshittification은 온라인 플랫폼의 예측 가능한 품질 저하를 설명합니다. 이 용어는 처음에는 소셜 미디어 거대 기업에 적용되었지만, 사용자 친화적으로 시작하여 좌절감을 주고 가치가 추출된 과거의 껍데기로 전락하는 서비스의 수명 주기를 완벽하게 포착합니다. 이는 고립된 사건이 아니라 시스템적인 부패입니다.
Doctorow는 암울한 3단계 과정을 설명합니다. 첫째, 플랫폼은 훌륭하고 종종 보조금을 받는 제품으로 사용자를 유인하여 강력한 network effect를 구축합니다. 둘째, 사용자가 일단 갇히면 플랫폼은 광고주나 콘텐츠 제작자와 같은 비즈니스 고객에게 가치를 전환하여 사용자를 착취하기 시작합니다. 마지막으로, 사용자와 비즈니스 모두 의존하게 되면 플랫폼은 비즈니스 고객을 착취하여 남아있는 모든 가치를 스스로 회수하고, 다른 모든 사람들에게는 저하된 경험을 남깁니다.
이러한 궤적은 AI에서 전개되는 위기를 반영합니다. OpenAI의 ChatGPT와 Anthropic의 Claude와 같은 모델의 초기 버전은 종종 사용자에게 직접적인 비용 없이 전례 없는 기능을 제공했습니다. 이들은 수백만 명을 유치하고, 귀중한 사용자 데이터를 수집하며, 시장 지배력을 확립하기 위해 막대한 보조금을 받은 '훌륭한 제품' 단계였습니다. 그러나 초기 '와우' 요소는 품질과 신뢰성의 뚜렷한 하락으로 이어졌습니다.
사용자들이 AI 성능 저하로 인식하는 것은 결함이 아니라, 진화하는 비즈니스 모델의 의도적인 결과입니다. Facebook이 친구 연결에서 관심사 수익화로 전환하고, Twitter (현재 X)가 사용자 복지보다 참여 지표를 우선시했던 것처럼, AI 기업들은 이제 기업의 필수 목표에 최적화하고 있습니다. 여기에는 추론 비용 절감, 엄격한 '안전' 필터 구현, 또는 기업 고객을 위한 모델 맞춤화가 포함되며, 이 모든 것은 일반 사용자 경험과 순수한 지능을 희생시키면서 이루어집니다. 허용 가능한 AI 품질에 대한 Overton window window는 발전이 아닌 이윤에 의해 하향 조정되고 있습니다.
문제는 인센티브야, 바보야
챗봇 품질 저하에 대한 사용자 불만은 우연이 아닙니다. 이는 이러한 고급 AI 시스템을 구축하는 기업 내부에 존재하는 강력하고 경쟁적인 incentive structures의 직접적인 결과입니다. 기술적인 오류와는 거리가 멀게, OpenAI의 ChatGPT 및 Anthropic의 Claude와 같은 모델에서 관찰되는 성능 저하는 기업 우선순위의 근본적인 변화에서 비롯됩니다. 이제 외부 사용자 만족도는 내부 기업 생존과 싸우고 있습니다.
획기적이고 지능적인 사용자 경험을 제공하려던 초기 야망은 세 가지 내부 압력에 가려졌습니다. 여기에는 원시적이고 제약 없는 성능보다 극심한 효율성을 요구하는 엄청난 cost of computation; 과도하게 조심스럽고, 종종 검열되며, 때로는 도움이 되지 않는 결과물을 초래하는 소송에 대한 마비시키는 두려움; 그리고 절대적인 사실 정확성을 추구하며 모델을 평범함과 예측 가능성으로 몰아가는 이길 수 없는 war on 'hallucinations'가 포함됩니다.
이러한 심오한 내부 싸움은 이제 AI 개발을 좌우하며, 진정으로 지능적이거나 매력적인 상호작용을 추구하던 초기 목표를 뒷전으로 밀어냈습니다. 기업들은 더 이상 '최고의' 챗봇 경험만을 위해 최적화하는 것이 아니라, 경제적으로 실행 가능하고, 법적으로 방어 가능하며, 논란의 여지가 있거나 바람직하지 않은 콘텐츠를 생성할 가능성이 최소화된 경험을 위해 최적화하고 있습니다. 이러한 재정향은 이러한 시스템이 훈련되고, 미세 조정되며, 궁극적으로 수백만 사용자에게 배포되는 방식을 근본적으로 변화시킵니다.
사용자들이 AI가 '멍청해지고 있다'고 인식하는 것은 본질적으로 일련의 전략적 절충안입니다. 수백만 명을 사로잡았던 초기 '와우' 요소는 안정성과 비용 통제를 위해 성능을 희생하는 보다 실용적이고 위험 회피적인 접근 방식으로 바뀌었습니다. 다음 섹션에서는 이 세 가지 요소를 각각 분석하여, 엄청난 계산 요구 사항, 임박한 법적 위협, 그리고 허위 정보를 근절하는 시시포스적인 과제가 어떻게 챗봇을 덜 유능하고 더 좌절스럽게 만드는지 정확히 탐구할 것입니다.
Driver #1: 비용의 엄청난 부담
OpenAI의 GPT-4 또는 Anthropic의 Claude Opus와 같은 최첨단 LLMs를 운영하는 것은 천문학적인 비용을 요구합니다. 가벼운 질문부터 복잡한 코딩 요청에 이르기까지 각 상호작용은 방대한 전문 GPUs 클러스터 전반에 걸쳐 대규모 계산 연쇄 반응을 촉발합니다. 이러한 작업은 엄청난 양의 전기를 소비하고 지속적인 고급 인프라 유지보수를 필요로 하며, 이는 본질적으로 일반적인 수익을 능가하는 쿼리당 비용으로 이어집니다.
따라서 모든 사용자 쿼리는 크게 subsidized된 거래로 기능합니다. 기업들이 사용자를 유치하기 위해 무료 등급을 제공하고 향상된 접근을 위해 유료 구독을 제공할 수 있지만, 근본적인 경제성은 여전히 가혹합니다. 최고급 모델에서 미묘하고 깊이 있는 추론 응답을 생성하는 진정한 비용은 프리미엄 구독자로부터 발생하는 한계 수익을 종종 초과합니다.
프리미엄 구독은 종종 20~30달러 범위에서 사용자에게 더 많은 토큰 또는 더 높은 사용 한도를 제공합니다. 그러나 이러한 요금은 복잡한 추론 작업의 전체 계산 비용을 거의 충당하지 못합니다. 사용자가 AI에 복잡한 문제 해결, 다단계 분석 또는 광범위한 내부 '사고'를 요구하는 창의적 생성을 요청할 때, 모델은 훨씬 더 많은 리소스를 소비합니다. 역설적으로, 사용자가 AI의 실제 지능(가장 가치 있는 기능)을 더 많이 활용할수록 회사는 해당 상호작용에서 더 많은 돈을 잃게 됩니다.
이러한 역전된 인센티브 구조는 개발자들이 효율성을 찾도록 강요합니다. 한 가지 주요 방법은 모델의 추론 깊이를 미묘하게 줄이는 것으로, 이는 통칭적으로 "사고 토큰 깎아내기"라고 불립니다. 이것은 노골적인 검열이 아니라, LLM이 답변을 구성하기 전에 수행하는 내부 계산 단계를 축소하는 것입니다. 엔지니어는 모델의 '사고 시간'을 줄이거나, 내부 독백을 제한하거나, 정보 검색 범위를 좁혀 값비싼 계산 주기를 절약할 수 있습니다.
사용자들은 이러한 비용 절감 조치의 직접적인 결과를 경험합니다. 챗봇은 종종 '게으르게' 보이며, 더 짧고, 덜 포괄적이거나, 지나치게 일반적인 답변을 제공합니다. 그들은 복잡하고 여러 부분으로 구성된 질문에 참여하는 것을 눈에 띄게 꺼려하며, 깊이 있는 해결을 시도하기보다는 문제를 단순화하거나 설명을 요청하는 경우가 많습니다. 한때 뛰어났던 AI가 이제는 저하된 느낌을 주는 것에 대한 좌절감과 같은 이러한 관찰된 품질 저하는 계산 비용의 엄청난 부담으로 인한 직접적이고 경제적으로 합리적인 결과입니다.
동인 #2: 수십억 달러 규모의 소송 망령
거대한 기업체인 AI 회사들은 법적 책임에 대한 실존적 공포 속에서 운영됩니다. 더 민첩한 스타트업과 달리, 이 수십억 달러 규모의 조직들은 거의 모든 것보다 위험 완화를 우선시합니다. 대규모 언어 모델이 처리하는 모든 단일 쿼리는 파괴적인 소송의 잠재적 경로를 나타내며, 개발에 대한 매우 보수적인 접근 방식을 심어줍니다.
저작권 침해는 이미 긴 그림자를 드리우고 있습니다. 출판사와 작가들은 Anthropic에 대한 소송에서 볼 수 있듯이 적극적으로 소송을 제기하고 있으며, 이 회사가 동의 없이 방대한 양의 저작권이 있는 책으로 Claude 모델을 훈련했다고 주장합니다. 이러한 사례는 AI 훈련 데이터에 대한 법적 환경을 재정의하고, 기존 모델을 무효화하며, 천문학적인 라이선스 비용을 요구할 수 있습니다.
훈련 데이터를 넘어, 유해한 조언의 망령이 크게 드리워져 있습니다. 잘못되거나 위험한 지침을 제공하는 AI 모델은 치명적인 법적 분쟁을 촉발할 수 있습니다. AI 챗봇이 다음을 제공한다고 상상해 보십시오: - 재정적 파멸로 이어지는 잘못된 법률 자문 - 환자 건강을 위협하는 의료 맥락에서의 오진 - 상당한 손실을 초래하는 결함 있는 재정 계획
이러한 책임을 선제적으로 방지하기 위해 개발자들은 극단적인 조치를 취하며, 정교한 모델을 효과적으로 로보토마이징합니다. 이 공격적이고 방어적인 법적 전략은 AI를 지나치게 조심스럽고, 설교적이며, 감정적으로 무미건조하게 만들도록 설계된 광범위한 보호 장치와 필터를 구현하는 것을 포함합니다. 주요 목표는 가장 면밀한 법적 해석 하에서 실행 가능하지만 문제가 있는 조언으로 간주될 수 있는 모든 출력을 제거하는 것입니다.
수십억 달러 규모의 소송에 대한 이러한 만연한 두려움은 현대 챗봇의 유용성 저하로 직접 이어집니다. 기업들은 미묘하고 진정으로 도움이 되며 매력적인 답변을 체계적으로 희생하고, 일반적이고 위험 회피적인 상투적인 말로 대체합니다. 법적 책임을 피해야 한다는 강박은 필연적으로 AI 행동을 형성하며, 결과적으로 덜 지능적이고, 덜 유능하며, 궁극적으로 일상 사용자에게 훨씬 더 실망스러운 모델을 만들어냅니다.
'로보토마이즈드' AI: 안전하고, 삭막하며, 쓸모없는
사용자들은 한때 ChatGPT와 Claude 같은 챗봇의 대화 유창성과 창의적인 불꽃을 칭송했습니다. 이제는 그 경험이 마치 정교하게 프로그래밍되었지만 전혀 즐거움이 없는 자동인형과 상호작용하는 것처럼 느껴집니다. 이는 AI의 "로보토마이즈드화"의 직접적인 결과입니다. 법적 및 평판 위험을 제거하기 위해 의도적으로 중성화된 것이지만, 유용성과 참여도를 크게 희생시켰고, 허용 가능한 AI 행동의 Overton window를 극도의 신중함 쪽으로 확고히 밀어붙였습니다.
미묘한 반응과 재치 있는 농담의 시대는 지났습니다. 대신, 사용자들은 점점 더 많은 정형화된 문구, 특히 어디에나 있는 "저는 대규모 언어 모델로서..."라는 면책 조항을 접하게 됩니다. 이 서문은 프롬프트의 무해한 특성과 관계없이 윤리적 경계, 안전 지침 또는 모델의 내재된 한계에 대한 강의에 앞서 나옵니다. 한때 탐색의 파트너였던 AI는 이제 영구적인 윤리 위원회처럼 행동하며 사용자에게 그 제약과 안전 장치를 끊임없이 상기시킵니다.
이러한 공격적인 정화 작업은 모델에서 초기 감성 지능과 독특한 개성을 박탈합니다. 초기 버전이 창의적인 제안, 공감적인 반응 또는 심지어 장난기 넘치는 상호작용을 제공했을 수도 있지만, 현재 버전은 완고하게 중립적이고, 평면적이며, 식별 가능한 특성이 전혀 없습니다. 상상력, 미묘한 아이디어 구상 또는 많은 초기 채택자들이 중요하게 여겼던 동반자적 상호작용을 요구하는 작업에 대해 이 모델들은 답답할 정도로 부적절함을 입증하며, 인지된 "안전" 문제로 인해 창의적인 프롬프트나 역할극 시나리오에 참여하기를 종종 거부합니다.
수십억 달러 규모의 소송과 대중의 반발이라는 유령에 의해 추진되는 절대적인 안전에 대한 끊임없는 추구는 결과적으로 삭막하고 전혀 도움이 되지 않는 사용자 경험을 만들어냈습니다. AI 기업들은 사실상 다재다능함과 매력적인 상호작용을 밋밋한 준수와 맞바꾸었습니다. 다양한 요구에 적응하고 창의성을 증진할 수 있는 역동적이고 지능적인 비서라는 초기 약속은 체계적으로 훼손되었습니다. 이제는 안전할지는 모르지만, 가장 엄격하게 정의된 저위험 작업을 넘어서는 모든 것에 대해 점점 더 쓸모없는 도구로 대체되었습니다. 이러한 근본적인 모순은 현재 AI 환경의 비극적인 아이러니를 강조합니다. 완벽하게 무해해지려고 노력하면서, 이 고급 시스템들은 대체로 비활성화되어 진정으로 유용하고 다재다능한 비서로서의 원래 잠재력을 발휘하지 못하고 있습니다.
세 번째 동인: 환각과의 이길 수 없는 전쟁
환각은 생성형 AI의 광범위한 기업 및 전문 분야 채택에 가장 중요한 장애물입니다. 이 설득력 있지만 사실과 다른 출력은 의학, 법률, 금융과 같은 분야의 중요한 애플리케이션에 대해 모델을 근본적으로 신뢰할 수 없게 만듭니다. 기업들은 일상적으로 데이터를 조작하거나 사실을 잘못 진술하는 도구를 배포하여 명성을 위태롭게 하거나 법적 처벌을 받을 위험을 감수할 수 없습니다.
그러나 100% 사실 정확도를 달성하는 것은 대규모 언어 모델이 작동하는 핵심 메커니즘과 직접적으로 모순됩니다. 이 모델들은 검증된 진실의 내부 데이터베이스를 참조하기보다는 방대한 훈련 데이터셋을 기반으로 가장 가능성 있는 다음 단어를 예측하는 정교한 패턴 매처로 기능합니다. 이들은 *생성*하도록 설계되었지, 반드시 *알도록* 설계된 것이 아니므로 완벽한 사실 회상은 본질적으로 달성하기 어려운 목표입니다.
AI 개발자들은 이러한 조작을 억제하기 위해 다양한 기술을 사용하며, 가장 주목할 만한 것은 인간 피드백 기반 강화 학습(RLHF)입니다. 이 노동 집약적인 과정은 인간 주석자가 모델 응답을 평가하여 AI가 진실하고, 무해하며, 유용한 출력을 선호하도록 안내합니다. 심각한 오류를 줄이는 데 효과적이지만, RLHF는 종종 모델이 지나치게 조심스럽고, 일반적이며, 덜 창의적이 되어 초기 재능을 밋밋한 안전성으로 희생하는 현상으로 이어집니다.
의사, 변호사, 금융 분석가를 위한 무오류성에 대한 끊임없는 추구는 필연적으로 이러한 AI에서 처음에는 더 넓은 대중을 사로잡았던 바로 그 능력을 박탈합니다. 기업들이 고위험 전문 사용 사례에 대한 책임을 완화하고 무균적이고 예측 가능한 응답을 보장하는 것을 우선시함에 따라, 모델은 놀라움을 주거나, 혁신하거나, 진정으로 새로운 콘텐츠를 생성하는 능력을 잃습니다. 기업을 위해 AI를 "안전"하고 사실적으로 견고하게 만들려는 이러한 노력은 아이러니하게도 다른 모든 사람에게는 점점 더 지루하고 덜 유용하게 만들며, 한때 진정으로 마법 같다고 느끼게 했던 불꽃을 꺼뜨립니다.
가장 안전한 바닥을 향한 경쟁
운영 비용의 엄청난 부담, 항상 존재하는 수십억 달러 소송의 망령, 그리고 환각(hallucinations)이라는 다루기 힘든 문제는 AI 경쟁 환경을 근본적으로 재편했습니다. 한때 기업들은 벤치마크를 자랑하고 가장 지능적이거나 유능한 모델을 놓고 경쟁하며 기계 인지가 달성할 수 있는 한계를 밀어붙였습니다. 그 시대는 결정적으로 끝난 것 같습니다. 인센티브가 바뀌었습니다.
오늘날의 전장은 순수한 지능이 아니라 상업적 생존 가능성입니다. OpenAI부터 Anthropic에 이르는 주요 AI 개발자들은 더 이상 획기적인 인지 능력이나 제약 없는 창의성을 우선시하지 않습니다. 대신, 그들은 가장 시급한 실존적 위협을 동시에 해결하는 모델을 구축하기 위한 치열하고 조용한 경쟁에 갇혀 있습니다. 이는 다음을 우선시하는 모델을 의미합니다: - 대규모로 실행하기에 가장 저렴하여, 모든 사용자 쿼리에 내재된 막대한 컴퓨팅 보조금을 완화합니다. - 법적으로 가장 방어 가능하여, 저작권 침해 주장, 명예훼손 소송 또는 사실 오류 책임에 대한 노출을 최소화합니다. - 기업 고객에게 가장 안전하여, 논란의 여지가 있거나, 불쾌하거나, 정치적으로 민감한 콘텐츠로부터 완전히 자유로운 예측 가능하고 브랜드에 부합하는 출력을 보장합니다.
이러한 전략적 전환은 광범위한 사용자 불만과 모델 품질 저하에 대한 인식을 직접적으로 설명합니다. 미묘함, 창의적인 불꽃, 모험적인 정신을 박탈당한 "뇌엽 절제술을 받은" AI는 우연한 부산물이 아닙니다. 이는 이러한 강력한 상업적 및 법적 압력의 의도적이고 공학적인 결과입니다. 특히 여과되지 않은 창의성, 미묘한 이해 또는 복잡한 추론이 필요한 영역에서의 혁신은 목표라기보다는 책임이 됩니다.
궁극적으로, 이러한 궤적은 극명한 가장 안전한 바닥을 향한 경쟁을 나타냅니다. AI 기업들은 비용 효율성과 위험 완화라는 제단에 순수한 지능, 새로운 능력, 그리고 진정으로 매력적인 사용자 경험을 적극적으로 희생합니다. 이 새로운 패러다임에서 가장 성공적인 AI는 가장 똑똑하거나 일반 사용자에게 가장 유용한 것이 아닙니다. 그것은 가장 무균적이고, 예측 가능하며, 논란, 법적 문제 또는 막대한 운영 적자를 일으킬 가능성이 가장 적은 것입니다. 이는 진정한 발전을 억압하고, 기업의 마음의 평화를 위해 진정한 능력을 거래하며 궁극적으로 전체 분야의 잠재력을 감소시킵니다.
이 나선에서 벗어날 방법이 있을까요?
현재의 악순환에서 벗어나려면 AI 개발 및 배포에 대한 근본적인 재평가가 필요합니다. 가장 유망한 대안은 오픈 소스 모델에 있으며, 이는 ChatGPT 및 Claude와 같은 불투명한 독점 시스템에 대한 투명한 대안을 제공합니다. 커뮤니티 주도 개발은 보편적인 안전 또는 비용 절감에 대한 기업의 압력 없이 혁신을 촉진할 수 있습니다.
그러나 오픈 소스 모델은 만만치 않은 도전에 직면해 있습니다. 최첨단 대규모 언어 모델을 훈련하는 데 수천만에서 수억 달러가 소요될 수 있으며, 이는 많은 비상업적 단체에게는 엄청난 장벽입니다. 또한, 자유를 제공하는 동시에 중앙 집중식 안전 장치의 부족은 잠재적인 오용과 명확한 책임 구조의 부재에 대한 정당한 우려를 불러일으킵니다.
대안적인 비즈니스 모델은 핵심적인 인센티브를 바꿀 수도 있습니다. 모든 사람에게 서비스를 제공하도록 설계된 일반적인 구독 기반 챗봇 대신, 미래의 AI는 특정 산업을 위한 고도로 전문적이고 미세 조정된 모델로 발전할 수 있습니다. 법률 연구, 의료 진단 또는 금융 분석을 위한 맞춤형 AI 도구를 상상해 보십시오. 여기서는 광범위한 대화 능력보다 정확성과 도메인 전문 지식이 더 중요합니다.
이러한 전문화된 AI는 라이선스를 받거나 온프레미스로 배포되어 경제적 계산을 바꿀 수 있습니다. 기업은 일반적이고 위험 회피적인 모델에 대한 모든 공개 쿼리를 보조하는 대신, 정확한 유용성과 검증 가능한 성능에 대해 비용을 지불할 것입니다. 이 접근 방식은 "토큰당" 비용 부담을 최소화하고 현재 대량 시장 제품의 광범위한 법적 노출을 줄입니다.
궁극적으로, 이러한 성능 저하가 대규모로 상업화되는 모든 AI의 피할 수 없는 운명인지에 대한 의문은 남아 있습니다. 비용, 책임, 그리고 환각과의 이길 수 없는 전쟁이라는 요인들은 이윤과 시장 지배력이 주요 동력일 때, 더 안전하지만 덜 유능한 제품으로의 피할 수 없는 이끌림을 만듭니다. 이 순환을 깨려면 인공지능을 구상하고, 구축하고, 자금을 조달하는 방식에 대한 근본적인 변화가 필요하며, 보편적이고 정제된 접근성보다 유용성과 무결성을 우선시해야 합니다.
AI의 미래에서 당신의 역할
사용자는 인공지능의 미래를 이끌어갈 중요한 힘을 가지고 있습니다. 그 궤적은 미리 정해져 있지 않습니다. 당신의 적극적인 참여와 분별력 있는 선택은 현재 주요 모델을 저하시키는 엔시티피케이션(enshittification)의 힘에 맞설 수 있습니다. 기업은 궁극적으로 사용자 참여, 유지 및 수익에 반응하므로, 당신의 집단적인 목소리와 소비 습관이 중요합니다.
AI 개발자에게 단순한 버그 보고서를 넘어선 구체적이고 비판적인 피드백을 제공하십시오. 당신이 관찰하는 정확한 기능 손실을 명확히 설명하십시오. 예를 들어, 이전 버전의 ChatGPT가 문맥 기억을 가지고 복잡한 다중 턴 대화를 어떻게 처리할 수 있었는지 설명하고, 현재 버전이 어디에서 실패하는지 자세히 설명하십시오. 또는 Claude Opus 4.7이 한때 미묘한 창의적 글쓰기에 탁월했지만, 이제는 일반적이고 위험 회피적인 산문으로 기본 설정되는 방식을 설명하십시오. 이러한 성능 저하를 문서화하는 것은 개발자가 안전 장치 및 비용 절감 조치의 진정한 영향을 이해하는 데 필수적입니다.
기업 제품의 폐쇄적인 환경을 넘어, 급성장하는 오픈 소스 AI 생태계를 탐색하고 적극적으로 지원하십시오. Meta의 Llama 3, Mistral AI의 강력한 모델, 그리고 수많은 파생 프로젝트와 같은 프로젝트들은 폐쇄형 소스 저하를 야기하는 동일한 기업 인센티브 갈등에서 종종 자유로운 투명한 대안을 제공합니다. 이러한 커뮤니티에 참여하고, 개발에 기여하거나, 단순히 강력한 로컬 모델을 실행하도록 선택하는 것은 기능, 사용자 제어 및 혁신을 우선시하는 경쟁 환경을 조성합니다.
궁극적으로 AI의 의식 있는 소비자가 되십시오. 매일 사용하는 도구를 형성하는 숨겨진 힘, 즉 엄청난 계산 비용, 수십억 달러 규모의 소송에 대한 만연한 두려움, 그리고 hallucinations과의 이길 수 없는 전쟁을 이해하십시오. 더 나은 것을 요구하십시오. 불모함보다 지능과 유용성을 우선시하는 모델을 적극적으로 찾고 옹호함으로써, 사용자들은 인공지능 산업을 더욱 혁신적이고 진정으로 유용한 미래로 이끌 수 있습니다.
자주 묻는 질문
AI 'enshittification'이란 무엇인가요?
AI 모델이 소셜 미디어 플랫폼처럼, 기업이 사용자 가치에서 이윤 극대화 및 위험 최소화로 초점을 옮기면서 시간이 지남에 따라 품질이 저하된다는 이론입니다.
챗봇 회사들은 왜 모델을 '더 안전하게' 만드나요?
AI가 생성한 유해하거나, 부정확하거나, 불법적인 조언에 따라 행동할 수 있는 사용자로부터 값비싼 소송을 피하기 위함이며, 이는 모델을 지나치게 조심스럽게 만들도록 강요합니다.
유료 AI 구독 서비스는 여전히 회사로부터 보조금을 받나요?
네, 업계 분석에 따르면, 유료 고객조차도 종종 전체 계산 비용을 충당하지 못하며, 이는 기업에게 모델 성능을 저하시킬 재정적 유인을 제공합니다.
'hallucinations'과의 싸움이 AI를 어떻게 더 나쁘게 만드나요?
사실 오류(hallucinations)를 제거하는 데 집중하면 종종 창의성이 떨어지고, 반복적이며, 추측적이거나 미묘한 대화에 참여하기를 거부하는 모델이 되어 전반적인 유용성을 제한합니다.