1 레딧 R/programming, AI LLM 관련 모든 콘텐츠 금지
이 사건이 상징적인 이유는 금지한 곳이 일반인 커뮤니티가 아니라 개발자 커뮤니티라는 점입니다. AI를 가장 먼저 받아들이고 가장 적극적으로 활용해야 할 사람들이 "이제 그만"을 외친 겁니다.
이번 r/programming의 실험은 대형 기술 커뮤니티가 과대 선전 사이클에 어떻게 저항하며 실질적 토론 공간을 보존하려 하는지 보여주는 케이스 스터디가 될 것입니다.
레딧의 프로그래밍 커뮤니티인 R/programming이 AI 언어 모델(LLM)과 관련된 모든 콘텐츠를 금지하는 결정을 내렸다. 이는 해당 주제에 관한 논의가 더 이상 이루어지지 않도록 하기 위한 조치로 보인다.
2 구글, 20배 큰 모델 성능 넘어선 개방형 AI '젬마4' 공개
구글이 경량·오픈소스 전략으로 개발자 생태계를 선점하려는 의도가 뚜렷해 보입니다. 소형 모델의 성능 한계가 빠르게 허물어지면서 클라우드 의존 없는 엣지 AI 시대가 본격화될 것도 예고하고 있습니다.
구글이 차세대 인공지능(AI) 오픈소스 모델 '젬마4'를 3일 공개했다. 젬마4 경량 모델은 타사 20배 더 큰 모델의 성능을 뛰어넘는다는 게 구글측 설명이다. 구글 최신 AI 모델 '제미나이3'와 동일한 기술을 기반으로 개발됐으며, 구글 오픈소스 모델 가운데 가장 뛰
3 앤트로픽, 클로드 코드 사용 감소 원인은 피크 시간 제한과 팽창하는 컨텍스트라고 설명하다
Claude Code는 코드베이스 전체를 컨텍스트에 넣어주는 것이 장점입니다. 그런데 Claude는 매 응답마다 이전 대화 전체를 컨텍스트로 다시 읽습니다. 대화가 길어질수록, 첨부 파일이 클수록 한 번의 응답에 소모되는 토큰이 폭발적으로 증가합니다. 1M 토큰 컨텍스트 창은 마케팅 측면에선 강점이지만, 사용자 입장에서는 세션 한도를 아주 빠르게 소진하는 함정이기도 합니다.
클로드 코드를 사용하세요? 그렇다면 구버전인 2.1.34로 다운그레이드하세요. 토큰을 아낄 수 있다고 합니다.
앤트로픽은 클로드 코드 사용자들이 한정된 사용량을 매우 빠르게 소모하고 있는 이유를 설명하며, 토큰 사용을 줄이기 위한 팁을 공유합니다. 이 기사는 클로드 코드의 사용 감소에 대한 설명이 처음 보도된 것입니다.
4 Deepseek v4는 중국의 AI 독립성 촉진을 위한 주요 승리로 화웨이 칩만으로 운영될 것이라고 보도됨
딥시크 V4가 화웨이 Ascend 950PR 칩만으로 구동되며, 알리바바·바이트댄스·텐센트가 수십만 개 단위로 주문하면서 칩 가격이 20% 급등했다. 미국의 반도체 수출 규제가 오히려 중국의 자국 AI 인프라 내재화를 가속하는 역설적 결과를 낳고 있으며, 이는 미중 AI 패권 경쟁의 판도가 예상보다 빠르게 바뀔 수 있음을 시사합니다.
Deepseek v4는 곧 출시될 예정이며, 화웨이 칩만을 사용하여 운영됩니다. 중국의 주요 기술 기업들은 이미 수십만 개의 유닛을 주문한 것으로 전해지고 있으며, 엔비디아는 초기 테스트에서 제외되었습니다.
5 "인지적 항복"이 AI 사용자를 논리적 사고에서 멀어지게 한다는 연구 결과
비판적 사고, AI시대 이전부터 강조된 현대사회를 살아가는 인간의 기본 덕목 중 하나입니다. 이런 비판적 사고 습관의 소실과 AI 리터러시 교육이 시급한 이유를 다시 한번 환기시킵니다.
실험 결과, 대다수의 사람들이 "결함이 있는" AI의 답변을 비판 없이 수용하고 있다는 사실이 드러났습니다.