
인공지능 칩, 모어의 법칙을 초월하다
Nvidia의 CEO인 젠슨 황은 자사의 인공지능(AI) 칩이 역사적으로 정립된 모어의 법칙보다 빠르게 성능이 향상되고 있다고 주장했습니다. 그는 최근 인터뷰에서 “우리 시스템은 모어의 법칙보다 훨씬 더 빠르게 발전하고 있다”고 강조했습니다. 이는 라스베이거스에서 열린 CES 2025 행사에서 1만 명 이상의 청중을 대상으로 한 기조연설 이후 발표된 내용입니다.
모어의 법칙은 1965년 인텔 공동 창립자인 고든 무어가 제안한 것으로, 반도체 칩의 트랜지스터 수가 약 2년마다 두 배로 증가한다고 예측했습니다. 이는 결과적으로 컴퓨터 성능을 두 배로 성장시키며 빠른 기술 발전과 가격 하락을 촉진했습니다. 하지만 최근 몇 년 동안 모어의 법칙은 둔화되고 있는 추세입니다. 그럼에도 불구하고, 황은 Nvidia의 AI 칩 성능이 자체적으로 가속화되고 있다고 주장하고 있습니다. 특히, 회사의 최신 데이터 센터 슈퍼칩은 이전 세대보다 AI 추론 작업을 처리하는 속도가 30배 이상 빨라졌습니다.
“우리는 아키텍처, 칩, 시스템, 라이브러리, 알고리즘을 동시에 개발할 수 있다. 이러한 방식으로 진행하면 모어의 법칙보다 더 빠르게 혁신할 수 있다”고 그는 덧붙였습니다. 이 같은 발언은 최근 AI의 발전이 정체되고 있다는 질문이 제기되는 상황에서 나왔습니다. Google, OpenAI, Anthropic과 같은 선도적 AI 연구소들은 Nvidia의 칩을 사용해 AI 모델을 훈련하고 운영하며, 칩의 발전은 AI 모델의 기능 향상에 기여할 것입니다.
황은 AI의 진전을 저해하는 요소가 없다고 주장하며, 현재 세 가지 활동적인 AI 스케일링 법칙—예비 훈련, 후 훈련 및 테스트 타임 컴퓨트를 제안했습니다. 그는 “모어의 법칙이 컴퓨팅 비용의 감소를 이끌었던 것처럼, 추론에서도 성능을 높이고 결과적으로 비용을 줄일 것”이라고 말했습니다.
AI 모델의 운영 비용이 급증하고 있는 가운데, 특히 오픈AI의 o3 모델은 테스트 타임 컴퓨트를 확대 적용했으나 높은 비용 문제로 어려움을 겪고 있습니다. 예를 들어, OpenAI는 이 AI 모델로 일반 지능 테스트에서 인간 수준의 점수를 달성하기 위해 작업당 약 20달러를 소모했습니다.
이처럼 비싸진 AI 모델 운영 비용 문제에도 불구하고, 황은 Nvidia의 최신 슈퍼칩이 AI 추론 작업에서 30배에서 40배 더 빠르게 작동한다고 강조했습니다. 그는 이러한 성능 향상이 시간이 지남에 따라 AI 모델의 운영비용을 낮출 것이라고 예측했습니다.
궁극적으로 황은 성능 향상에 집중하고 있으며, 성능이 뛰어난 칩은 장기적으로 가격 하락을 가져올 것이라면서, “테스트 타임 컴퓨트의 성능과 비용 문제를 해결하기 위해 컴퓨팅 능력을 높이는 것이 가장 직접적이고 즉각적인 해결책”이라고 설명했습니다. 그는 AI 추론 모델이 AI 모델의 예비 및 후 훈련 데이터를 개선하는 데 사용될 가능성이 있다고 강조했습니다.
Nvidia의 AI 칩이 10년 전보다 1,000배 더 향상되었다는 황의 주장은 모어의 법칙에서 정립된 기준보다 훨씬 빠른 진행 속도를 나타냅니다. 그는 향후에도 이러한 추세가 계속될 것이라는 입장을 밝혔습니다.
주요 포인트:
- Nvidia의 AI 칩 성능이 모어의 법칙을 초과하고 있다는 주장
- 최신 데이터 센터 슈퍼칩, 이전 세대보다 AI 작업 처리 속도 30배 이상 향상
- AI 운영 비용 문제에도 불구하고 성능 향상으로 가격 하락 예상
- AI 스케일링 법칙: 예비 훈련, 후 훈련, 테스트 타임 컴퓨트
- AI 칩이 향후 1,000배 성능 향상을 이끌 것이라는 전망