[AI 프리즘] '엔비디아' 문 앞에 줄서는 전세계 기업들...블랙웰 공개로 추격자들 격차 확대
[AI 프리즘] '엔비디아' 문 앞에 줄서는 전세계 기업들...블랙웰 공개로 추격자들 격차 확대
  • 최정미 기자
  • 승인 2024.03.19 06:56
  • 수정 2024.03.19 11:10
  • 댓글 0
이 기사를 공유합니다

엔비디아. 연합뉴스
엔비디아. 연합뉴스

인공지능 시대를 맞아 기술력에서 월등한 엔비디아의 제품을 구입하기 위해 전세계 기업들이 줄을 서고 있다. 엔비디아는 여기에 차세대 AI GPU 플랫폼 '블랙웰' 공개하며 추격자들과의 격차를 확대하고 있다.

엔비디아는 18일 오후(현지시간, 한국시간 19일 오전 5시) 미국 캘리포니아 주 새너제이에서 진행된 GTC 2024 기조연설을 통해 차세대 AI GPU '블랙웰'(Blackwell)을 공개했다.

엔비디아는 차세대 AI 칩에 게임 이론, 확률론, 정보 이론 등을 확립한 20세기 미국인 수학자인 데이빗 해럴드 블랙웰(1919-2010)의 이름을 따왔다.

젠슨 황 엔비디아 CEO는 이날 기조연설에서 "텍스트와 이미지, 그래프 뿐만 아니라 전세계 언어로 구성된 영상을 학습하고 이를 흉내내려면 더 큰 GPU가 필요하다"고 밝혔다.

블랙웰 GPU는 대만 TSMC의 4나노급 공정(4NP)으로 만든 반도체 다이(Die) 두 개를 연결해 만든 칩이며 2천80억 개의 트랜지스터를 집적했다. 다이 두 개는 초당 10TB(테라바이트)의 데이터를 주고 받으며 하나의 칩처럼 작동한다.

최대 576개의 GPU 사이에서 양방향으로 초당 1.8TB 데이터를 주고 받는 연결 통로인 5세대 NV링크, 장시간 구동되는 데이터센터 환경에서 GPU와 메모리 신뢰성을 검증하는 AI 기반 RAS 엔진, 민감한 데이터를 암호화하고 신뢰성을 보장하는 시큐어 AI 등이 내장됐다. 

엔비디아 블랙웰 GPU. (사진=엔비디아)
엔비디아 블랙웰 GPU. (사진=엔비디아)

이미 엔비디아의 H100은 전세계 테크산업을 핵심으로 꼽혀왔다. 

새로운 데이터센터 칩 H100은 생성형 AI 광풍이 곧 수익, 특히 엔비디아에게 수익이라는 것을 투자자들에게 증명했다. 폭발적인 H100의 수요로 급기야 구매자는 6개월 이상을 기다려야 하는 상황이다. 

컴퓨터 과학의 선구자 그레이스 호퍼(Grace Hopper)에 경의를 표하는 뜻에서 이름을 딴 H100은 그래픽 프로세서(GPU)이다. 그래픽 프로세서는 보통 PC 내에 탑재돼 있으며, 게임할 시 생생한 그래픽을 경험할 수 있도록 해 주는 것이다. 그러나 보통의 프로세서와 달리 H100의 800억 개의 트랜지스터는 이미지 생성이 아니라, 데이터를 고속으로 처리하도록 튜닝된 코어에 배열돼 있다. 

1993년에 설립된 엔비디아는 이 시장을 선도했다. 무려 20년 전에 GPU의 병렬 작업 능력이 언젠가 게임 외에도 적용될 수 있다는 것에 확신했다.

생성형 AI 플랫폼들은 방대한 양의 현존하는 데이터를 기반으로 훈련한 뒤, 텍스트를 해석하고, 보고서를 요약하고, 컴퓨터 코딩을 하는 등의 작업을 완수하는 법을 터득한다. 이 AI 모델들은 더 많은 것을 볼수록 인간이 말하고 쓰는 작업을 인식하는 등의 일에 능숙해진다. 이를 위해 수십억 회의 시도와 함께 시행착오를 통해 발전한다. 

엔비디아는, 소위 이런 LLM(대규모 언어 모델) 훈련에 H100이 자사의 이전 모델인 A100보다 4배 더 빠르며, 유저 프롬프트에 응답하는 데 30배 더 빠르다고 말한다. 자신들의 LLM이 새로운 작업을 수행하도록 훈련시키는 회사들은 이러한 최첨단 능력이 절대적으로 필요하다. 

엔비디아는 컴퓨터 스크린 상에 이미지를 생성하는 GPU의 세계 최강자이다. 컴퓨터 게임에서 현실적인 그래픽을 생성하는 가장 강력한 GPU는 여러 개의 프로세싱 코어를 갖고 있으면서 여러 계산을 동시에 수행한다. 

엔비디아의 엔지니어들은 2000년대 초반에 GPU가 작업들을 더 작은 단위들로 쪼개 이를 동시다발적으로 처리하는 능력으로 다르게 쓰일 수 있다는 것을 알았다. AI 연구자들은 10년 전에야, 이런 칩이 실용적일 수 있다는 것을 발견했다.

엔비디아는 아마존의 AWS, 알파벳의 구글 클라우드, 마이크로소프트의 애저(Azure) 등 데이터센터 시장의 80%를 장악하고 있다. AI칩들로 데이터센터를 만들려는 경쟁을 벌이고 있는 이런 기업들에게 AMD, 인텔 등의 엔비디아 경쟁사 제품은 구미가 당기지 않을 수 있다.

엔비디아는 하드웨어를 지원하는 소프트웨어를 포함해 빠른 속도로 제품들을 업그레이드 하고 있으며, 경쟁사들과의 속도 격차가 큰 것으로 평가되고 있다. 인텔의 제온(Xeon) 같은 프로세서들은 코어가 더 적다. 더 복잡한 데이터 처리를 할 수는 있으나 AI를 훈련시키기 위한 무수한 정보를 처리하는 데는 속도가 훨씬 느리다고 한다. 2022년 엔비디아의 데이터센터 부문의 수익은 150억 달러로 41% 성장했다.

엔비디아 다음으로 큰 GPU 제조사 AMD는 지난 6월 엔비디아를 따라잡기 위해 자사의 인스팅트(Instinct) 라인의 새 버전을 공개했다. MI300X 이름의 이 칩은 생성형 AI의 작업량을 처리하기 위한 메모리 공간이 더 크다고 AMD의 CEO 리사 수는 말했다. 그는 “우리는 여전히 AI 사이클의 매우 초기 단계에 있다”라고 말했다. 

인텔은 AI 작업량을 위한 특수한 칩을 개발하고 있지만, 현재로서는 현재로서는 인텔의 주력 제품인 CPU보다 GPU의 수요 증가 속도가 더 빠르다. 

엔비디아의 이점은 하드웨어 역량에만 있지 않다. 자사의 GPU를 AI 작업에 맞춰 프로그래밍하기 위해 엔비디아가 개발한 프로그래밍 언어인 쿠다(Cuda)도 있다.

[위키리크스한국 = 최정미 기자]

prtjami@wikileaks-kr.org


  • 서울특별시 마포구 마포대로 127, 1001호 (공덕동, 풍림빌딩)
  • 대표전화 : 02-702-2677
  • 팩스 : 02-702-1677
  • 청소년보호책임자 : 소정원
  • 법인명 : 위키리크스한국 주식회사
  • 제호 : 위키리크스한국
  • 등록번호 : 서울 아 04701
  • 등록일 : 2013-07-18
  • 발행일 : 2013-07-18
  • 발행인 : 박정규
  • 편집인 : 박찬흥
  • 위키리크스한국은 자체 기사윤리 심의 전문위원제를 운영합니다.
  • 기사윤리 심의 : 박지훈 변호사
  • 위키리크스한국 모든 콘텐츠(영상,기사, 사진)는 저작권법의 보호를 받은바, 무단 전재와 복사, 배포 등을 금합니다.
  • Copyright © 2024 위키리크스한국. All rights reserved.
  • [위키리크스한국 보도원칙] 본 매체는 독자와 취재원 등 뉴스 이용자의 권리 보장을 위해 반론이나 정정보도, 추후보도를 요청할 수 있는 창구를 열어두고 있음을 알립니다.
    고충처리 : 02-702-2677 | 메일 : laputa813@wikileaks-kr.org
ND소프트