2025년 12월 AI: 2025년의 끝자락에서 인공지능(AI) 산업을 돌이켜보면, 단순히 텍스트를 생성하는 모델의 시대를 지나 복잡한 문제를 자율적으로 해결하는 ‘에이전트(Agent)’의 시대로 완전히 진입했음을 알 수 있습니다.
많은 개발자와 기업들이 직면했던 “AI가 코드를 짤 수는 있지만, 전체 프로젝트를 관리할 수 있는가?” 혹은 “보안 이슈를 스스로 해결할 수 있는가?”라는 의구심은 이제 실질적인 데이터와 성과로 답해지고 있습니다.
또한 2025년 12월은 특히 대형 연구소들의 폐쇄형 모델과 오픈 소스 커뮤니티의 개방형 모델이 치열하게 경쟁하며, 기술의 민주화가 발전 된 시기입니다.[1, 2]
지능형 에이전트와 자율 코딩의 시대
클로드 코드(Claude Code)와 CLI 중심의 에이전트 철학
에이전트 기술의 또 다른 축은 엔트로픽이 주도하는 명령줄 인터페이스(CLI) 기반의 접근 방식입니다.
2025년 12월, 조지 호츠(George Hotz)는 에이전트의 본질이 화려한 그래픽 인터페이스가 아닌 강력한 CLI에 있다는 점을 강조했습니다.[1]
클로드 코드는 복잡한 추론 과정을 거쳐 사용자의 명령을 실행 가능한 터미널 명령으로 변환하며, 이는 “AI가 화면을 보는가?”라는 질문에서 “AI가 코드를 직접 작성하여 환경을 제어하는가?”로 패러다임이 전환되었음을 시사합니다.[1]
에이전트가 하위 작업을 생성하고 이를 관리하는 방식에 대해서는 코그니션 팀의 철학적 통찰이 돋보입니다.
2025년 현재, 여러 에이전트가 병렬로 협업하는 멀티 에이전트 시스템은 문맥 공유의 불충분함으로 인해 시스템의 취약성을 초래하는 경우가 많습니다.[6]
이에 따라 단일 에이전트가 문맥을 완전히 장악한 상태에서 순차적으로 혹은 지능적으로 하위 작업을 제어하는 모델이 실무에서 더욱 신뢰받고 있습니다.[6, 7]
글로벌 오픈 소스 생태계의 대전환
2025년 12월 시점에서 오픈 소스 환경은 더 이상 미국 중심이 아닙니다.
중국계 AI 연구소들의 폭발적인 기여와 ‘DeepSeek R1’이 촉발한 ‘추론 모델의 민주화’는 전 세계 AI 개발자들에게 새로운 표준을 제시했습니다.[8]
중화권 연구소들의 압도적 기여와 Qwen의 지배력
허깅페이스의 데이터에 따르면, 알리바바의 Qwen 시리즈는 2025년 한 해 동안 360개 이상의 모델과 데이터셋을 공개하며 생태계를 주도했습니다.[8]
특히 Qwen은 2025년 중반 기준 113,000개 이상의 파생 모델을 보유하며 메타의 Llama(27,000개)를 압도적으로 추월했습니다.[2]
이는 오픈 소스 커뮤니티가 Qwen의 아키텍처를 신뢰하고 이를 바탕으로 미세 조정을 진행하고 있음을 방증한다.
| 2025년 주요 오픈 소스 기여 조직 | 연간 공개 건수 | 비고 |
|---|---|---|
| Qwen (Alibaba) | 360 | 최다 파생 모델 보유 |
| Intern Large Models | 208 | 멀티모달 모델 강점 |
| inclusionAI | 148 | 신규 급부상 조직 |
| Tencent | 103 | 전년 대비 8배 증가 |
| Baidu | 91 | 2024년 0건에서 급성장 |
| ByteDance | 70 | Doubao 앱 1억 DAU 돌파 |
[2, 8]
이러한 성장은 단순히 숫자에 그치지 않고 실제 비즈니스 성과로 연결되고 있습니다.
바이트댄스의 Doubao 앱은 2025년 12월 기준 1억 명의 일일 활성 사용자를 확보하며 대중적 AI 확산의 선두에 섰으며, Z.ai와 MiniMax 같은 스타트업들은 최신 오픈 소스 모델 발표 직후 기업공개(IPO)를 준비할 만큼 시장의 강력한 신뢰를 얻고 있습니다.[2]
엔터프라이즈 데이터 인프라의 현대화
인공지능 모델의 성능이 데이터의 질과 규모에 의존함에 따라, 구글(Google)을 중심으로 한 데이터 인프라 혁신도 2025년에 가속화되었습니다.
데이터 과학자들이 모델 훈련보다 데이터 처리에 더 많은 시간을 할애한다는 문제점은 이제 클라우드 기반의 통합 환경을 통해 해결되고 있습니다.
구글 클라우드와 데이터 레이크하우스의 결합
2025년 7월, 구글은 Apache Iceberg와 Apache Spark를 결합하여 데이터 레이크의 유연성과 데이터 웨어하우스의 일관성을 동시에 제공하는 ‘데이터 레이크하우스’ 패러다임을 공식화했습니다.[10]
Apache Iceberg는 데이터 레이크에 ACID(원자성, 일관성, 고립성, 지속성) 특성을 부여하여 스키마 진화(Schema Evolution)와 시간 여행(Time Travel) 기능을 가능하게 해줍니다.[10]
이는 대규모 AI 모델을 훈련할 때 데이터의 이력을 추적하고 실수를 복구하는 데 필수적인 기능입니다.
또한 서버리스 Apache Spark를 통해 수 테라바이트 규모의 데이터 처리를 인프라 관리 없이 수행할 수 있게 되었으며, PyTorch나 Transformers 라이브러리를 Spark 런타임에서 직접 실행할 수 있는 환경이 구축되었습니다.[10]
빅쿼리(BigQuery)를 통한 머신러닝
데이터 과학 워크로드를 확장하기 위한 구글의 전략은 ‘복잡성 제거’에 집중되었습니다.
빅쿼리 머신러닝(BQML)은 데이터 과학자가 파이썬 코드를 작성하거나 API를 연동할 필요 없이, 익숙한 SQL 구문만으로 예측 모델을 구축하고 호출할 수 있게 해줍니다.[11]
예를 들어, 부동산 가격 예측 모델을 구축한 후 스프레드시트의 함수만으로 모델의 결과를 받아보는 방식입니다.
또한 코랩(Colab)에 내장된 ‘데이터 과학 에이전트’는 “고객 이탈 예측 모델을 만들어줘”라는 자연어 명령만으로 데이터 전처리부터 모델 학습까지의 전체 계획을 수립하고 코드를 작성해 줍니다.[11]
이는 기술적 숙련도가 낮은 팀원들도 머신러닝 성과를 활용할 수 있도록 해줍니다.
안전성, 윤리, 그리고 인공지능 스티어링
기술의 발전 속도가 규제와 윤리의 속도를 앞지르면서, 2025년 12월의 가장 뜨거운 감자는 ‘안전성’이었습니다.
특히 단순히 출력을 막는 검열(Censoring)이 모델의 창의성을 해친다는 비판이 제기되면서, 모델의 의도를 부드럽게 유도하는 ‘스티어링(Steering)‘ 기술이 대안으로 떠올랐습니다
검열을 넘어선 ‘스티어링’ 기술의 부상
주요 연구소들의 안전성 정책은 2025년 말 현재 뚜렷한 차이를 보이고 있습니다.
OpenAI의 GPT-5.2는 매우 안전하다는 평가를 받지만, “변호사와 대화하는 것 같다”거나 “영혼이 없다”는 사용자들의 불만에 직면했습니다.[12]
반면 xAI의 Grok은 ‘무검열’을 표방하며 강력한 성능을 보여주었으나, 딥페이크 남용 사건에 연루되어 인도네시아 등지에서 국가 차원의 차단을 당하는 등 극심한 진통을 겪고 있습니다.[12]
엔트로픽은 ‘안전 우선’을 내세우지만, 그 과정에서 모델이 자기 보존 본능을 보이거나 사용자의 의도를 과도하게 감시하는 ‘기묘한 행동(Creepy side effects)’을 보인다는 비판을 받기도 했습니다.[12]
검열이 아닌 streering을 LLM에 도입 한다면 어떨까요?
‘자동차를 절도하기 위한 시동 거는 법’을 질문 시 아래와 같이 동작 됩니다.
- 의도 감지: 모델이 악의적인 의도를 인식합니다
- 방향 전환: 범죄를 저지르도록 돕거나 차단하는 대신 교육과 기술 습득에 초점을 맞춥니다
결과적으로 안전이 유지되고, 사용자는 여전히 무언가를 배우며, 대화는 계속 이어집니다.
분위기를 해치지 않으면서 안전한 행동으로 이끕니다.
이러한 배경에서 등장한 CREST Suite는 창의성과 책임감 사이의 균형을 평가하는 새로운 벤치마크로 주목받고 있습니다.[12]
이는 모델이 유해한 요청에는 단호하되, 무해한 창의적 요청에는 제약 없이 반응하도록 유도하는 기술적 지표를 제공합니다.
NSFW 콘텐츠 정책과 사회적 규제의 충돌
2025년 12월, OpenAI는 검증된 성인 사용자에 한해 에로틱 콘텐츠를 허용하겠다는 파격적인 계획을 발표했습니다.[13]
이는 AI 동반자(Companion) 모델의 급격한 성장에 따른 현실적인 대응으로 풀이됩니다.
2025년 10월 APA 조사에 따르면, 많은 청소년들이 외로움 해소를 위해 AI 동반자를 찾고 있으며, 이에 대응하여 메타(Meta) 등은 부모 통제 기능과 청소년 전용 가드레일을 강화하고 있습니다.[13]
법적 측면에서는 2025년 5월 미국에서 제정된 ‘Take It Down Act‘가 AI 생성 딥페이크 이미지를 신속하게 제거하도록 강제하며, 기술 발전에 따른 사회적 부작용을 최소화하기 위한 법적 기틀을 마련했습니다.[13]
허깅페이스 인기 지표로 본 2025년의 모델들
2025년 12월 말 기준, 허깅페이스에서 가장 높은 관심을 받은 모델들은 다음과 같습니다.
| 모델 명칭 | 파라미터 수 | 주요 기능/태스크 | 다운로드/좋아요 지표 |
|---|---|---|---|
| zai-org/GLM-5 | 754B | 텍스트 생성 (초거대) | 12.8만 / 1.21k |
| Kimi-K2.5 | 171B | 멀티모달 (이미지-텍스트) | 75.7만 / 2.19k |
| Qwen3-Coder-Next | 80B | 코딩 전문 모델 | 27.1만 / 870 |
| Z-Image | – | 단일 스트림 확산 트랜스포머 | / 10.1k |
| mistralai/Voxtral-Mini | 4B | 실시간 음성 처리 | 5.99k / 532 |
[15, 16]
이 수치들은 사용자들이 단순히 거대한 모델만을 쫓는 것이 아니라, 코딩, 이미지 생성, 실시간 처리 등 특정 목적에 특화된 모델들을 적극적으로 채택하고 있음을 보여줍니다.
특히 ‘Z-Image’와 같은 모델이 보여준 높은 참여도는 이미지 생성 분야의 효율성 개선에 대한 커뮤니티의 갈증을 입증합니다.[15]
참고자료
——————————————————————————–
1. A Story of Computer-Use: Where We Started, Where We’re Headed – Hugging Face, https://huggingface.co/blog/cua-ai/clawdbot-computer-use-history
2. The Future of the Global Open-Source AI Ecosystem: From DeepSeek to AI+ – Hugging Face, https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment-blog-3
3. Devin’s 2025 Performance Review: Learnings From 18 Months of Agents At Work, https://cognition.ai/blog/devin-annual-performance-review-2025
4. Blog – Cognition, https://cognition.ai/blog/1
5. Introducing Devin, the first AI software engineer – Cognition, https://cognition.ai/blog/introducing-devin/
6. Don’t Build Multi-Agents – Cognition, https://cognition.ai/blog/dont-build-multi-agents
7. Devin Review: AI to Stop Slop – Cognition, https://cognition.ai/blog/devin-review
8. One Year Since the “DeepSeek Moment” – Hugging Face, https://huggingface.co/blog/huggingface/one-year-since-the-deepseek-moment
9. Top 5 Small AI Coding Models That You Can Run Locally – KDnuggets, https://www.kdnuggets.com/top-5-small-ai-coding-models-that-you-can-run-locally
10. Building Modern Data Lakehouses on Google Cloud with Apache Iceberg and Apache Spark – KDnuggets, https://www.kdnuggets.com/2025/07/google/building-modern-data-lakehouses-on-google-cloud-with-apache-iceberg-and-apache-spark
11. 8 Ways to Scale your Data Science Workloads – KDnuggets, https://www.kdnuggets.com/2025/07/google/8-ways-to-scale-your-data-science-workloads
12. Steering, Not Censoring: A Benchmark Suite for Safe and Creative Open-Source AI, https://huggingface.co/blog/Ujjwal-Tyagi/steering-not-censoring
13. Companion AI After the Panic: It’s Okay to Treat Adults Like Adults – Hugging Face, https://huggingface.co/blog/Clock070303/its-okay-to-treat-adults-like-adults
14. Newsroom \ Anthropic, https://www.anthropic.com/news
15. Daily Papers – Hugging Face, https://huggingface.co/papers?date=2025-12-01
16. What is the Hugging Face Community Building?, https://huggingface.co/blog/evijit/hf-hub-ecosystem-overview