1월, 2026의 게시물 표시

엔비디아 GTC 2026, 칩 7개를 한꺼번에 꺼내든 진짜 이유

GTC 2026이 끝났다. 매년 봐도 이번엔 분위기가 달랐다. 젠슨 황 이 무대에서 꺼낸 게 칩 하나가 아니라 풀스택 플랫폼 전체 였기 때문이다. 칩 7개, 랙스케일 시스템 5개, 거기에 슈퍼컴퓨터까지. 키노트를 보면서 "이건 제품 런칭이 아니라 생태계 선언이구나" 싶었다. 한 번에 이만큼 쏟아낸 건 엔비디아 역사에서도 처음이다. Vera Rubin, 에이전틱 AI를 위한 수직 통합 이번 GTC의 중심축은 단연 Vera Rubin 플랫폼 이다. 단순히 새 GPU 하나 내놓은 게 아니다. 엔비디아 공식 블로그 에 따르면 7개 칩과 5개 랙스케일 시스템, 그리고 슈퍼컴퓨터급 연산력을 하나의 플랫폼으로 묶은 풀스택 컴퓨팅 아키텍처다. 출하 시점은 2026년 하반기. 핵심 타깃은 에이전틱 AI 다. 스스로 판단하고 행동하는 AI 에이전트를 대규모로 운용하려면 GPU 하나만 빨라서는 안 된다. 네트워크 대역폭, 메모리 일관성, 소프트웨어 최적화가 전부 맞물려야 한다. Vera Rubin은 이 전체를 엔비디아 자체 기술로 채운 완전 수직 통합 플랫폼이다. 솔직히 이 정도면 경쟁사가 따라잡을 틈이 있나 싶다. 칩 설계부터 시스템 아키텍처, CUDA 생태계까지 전부 자기네 것이니까. 에이전틱 AI가 다음 전장이라는 걸 엔비디아가 가장 먼저, 가장 크게 베팅한 셈이다. DGX Station GB300: 책상 위에 올라온 슈퍼컴퓨터 개인적으로 가장 눈이 갔던 건 DGX Station GB300 이다. "데스크탑 슈퍼컴퓨터"라는 표현이 마케팅 문구처럼 들리겠지만, 스펙을 보면 농담이 아니다. 748GB 코히어런트 메모리 — GPU와 CPU가 하나의 메모리 풀을 공유 FP4 기준 20 페타플롭스 — 불과 몇 년 전 국가급 슈퍼컴퓨터 수준 1조 파라미터 모델 로컬 구동 가능 — GPT-4급 모델을 클라우드 없이 돌린다는 뜻 엔비디아 뉴스룸 에 따르면 ASUS, Dell, MSI 같은 OEM 파트너들이 ...

결국 구글이 AI 시장을 접수한다" - HBM의 아버지가 말하는 엔비디아와 오픈AI의 미래

HBM의 아버지가 말하는 AI 시장의 미래, 결국 구글이 모든 것을 가져갈 수밖에 없는 이유 카이스트 김정호 교수가 디일렉 인터뷰에서 던진 한 마디가 업계를 술렁이게 만들고 있습니다. "HBM이 AI 시대의 중심이며, 한국이 메모리 패권을 놓치면 생존 위기다." 그런데 이 말의 진짜 의미는 단순히 메모리 반도체 이야기가 아닙니다. 엔비디아와 오픈AI가 아무리 강력해도, 결국 구글이 AI 시장을 접수할 수밖에 없는 구조적 이유를 설명하는 핵심 단서입니다. 💡 3줄 요약 HBM 개발자 김정호 교수: "메모리가 AI 시대의 진짜 병목" 엔비디아와 오픈AI의 약점: 데이터 생태계 부재 구글의 숨겨진 무기: 검색 데이터 + TPU + HBM 수직계열화 HBM이 왜 갑자기 AI 시장의 핵심이 됐나 김정호 교수는 HBM(High Bandwidth Memory)을 최초로 개발한 인물입니다. 그가 지금 경고하는 건 단순한 기술 자랑이 아닙니다. AI 모델이 커질수록 연산 속도보다 '메모리 대역폭'이 진짜 병목이 된다는 겁니다. 엔비디아 GPU가 아무리 강력해도 HBM 없이는 무용지물이라는 뜻이죠. 현재 AI 학습에 쓰이는 GPU 한 장당 HBM3E 메모리가 8개씩 붙습니다. 문제는 이 HBM을 만들 수 있는 회사가 삼성과 SK하이닉스, 그리고 마이크론 단 3곳뿐이라는 점입니다. 공급 부족은 이미 시작됐고, 2025년 하반기부터는 본격적인 품귀 현상이 예상됩니다. 엔비디아의 치명적 약점: 데이터가 없다 엔비디아는 AI 칩 시장 점유율 80%를 넘는 절대 강자입니다. 하지만 한 가지 치명적 약점이 있습니다. 바로 '학습 데이터'를 직접 소유하지 못한다는 점이죠. GPU는 팔지만, 그 GPU로 무엇을 학습시킬지는 고객이 결정합니다. 오픈AI도 마찬가지입니다. GPT 모델은 강력하지만, 지속적으로 업데이트할 신선한 데이터는 외부에서 구매하거나 ...