找回密码
 立即注册
搜索
热搜: Apple Tesla Amazon
查看: 159|回复: 0

브로드컴 VS 엔비디아, 누가 AI 칩의 새로운 구도를 주도할 것인가?

[复制链接]

43

主题

0

回帖

157

积分

注册会员

积分
157
发表于 2024-12-18 11:04:19 | 显示全部楼层 |阅读模式

지난주 금요일 미국 주식 브로드컴은 24.43% 급등해 시가총액이 조 달러에 오른 뒤 이번 주 월요일 브로드컴의 주가는 11.21% 상승해 시가총액이 1조 1700억 달러에 달했다.이 회사가 시장의 예상을 뛰어넘는 최신 재무제보를 내놓은 후에도 AI 맞춤형 칩에 대한 시장의 관심은 여전히 높아지고 있다.화요일 미국 주식의 여러 칩주가 전반적으로 하락했음에도 불구하고 브로드컴의 화요일 주가는 3.91% 하락했고, 마감 시가총액도 여전히 1조 1000억 달러 이상이었다.
AI 분야에서 브로드컴은 맞춤형 또는 전용 집적회로 (ASIC) 와 이더넷 네트워크 부품에 발을 들여놓았고, 브로드컴은 3개 대형 클라우드 업체와 합작하여 맞춤형 AI 칩을 개발했다.ASIC와 더 일반적인 GPU (그래픽 프로세서) 는 더 전용 칩으로서 구글,Meta、아마존과 많은 스타트업의 진영, 후자는 주로 엔비디아와 AMD가 서 있다.
브로드컴의 주가 이륙은 ASIC가 GPU 진영을 반격하는 전주곡일 뿐이다.엔비디아 GPU를 자체 연구 ASIC로 대체하는 클라우드 업체 외에도 ASIC 분야의 창업 붐이 일고 있어 스타트업들이 세계적으로 고객을 찾고 있다.업계인사의 견해에 의하면 GPU와 ASIC의 쟁탈은 통용과 전용진영의 쟁탈에 더욱 가깝다. AI가 최종적으로 정형화되기전에 두가지 칩은 모두 상대방을 완전히 대체하지 않을것이며 이번 게임도 반드시 1패1승으로 결과가 되는것은 아니다.
누가 브로커들에게 업적을 창조하고 있습니까?
GPU 최강자인 엔비디아는 스포트라이트 아래 너무 오래 서 있었기 때문에 사람들은 배후의 각 클라우드 제조업체의 코어 제조 노력을 쉽게 무시할 수 있으며, 그들이 설계한 ASIC 침투율은 많은 사람들이 생각하는 것보다 더 깊을 수 있다.
ASIC에는 TPU (Tensor Processing Unit, 텐서 프로세서), LPU (언어 프로세서), NPU (신경 네트워크 프로세서) 와 같은 다양한 종류의 칩이 포함되어 있습니다.클라우드 업체 중 구글은 수년 전에 TPU를 배치했으며, 6세대 TPU Trillium은 이번 달에 정식으로 고객에게 사용을 개방했습니다.메타는 올해 AI 훈련과 추리를 위한 맞춤형 칩 MTIA v2를 출시했습니다.아마존에는 Trainium2가 있으며 내년에 Trainium3를 출시 할 계획입니다.마이크로소프트는 자체 개발한 AI 칩인 Azure Maia를 보유하고 있다.
칩을 외부에 판매하지 않기 때문인지 이들 클라우드 업체의 AI 칩은 시장의 주목을 덜 받고 있다.그러나 실제로 이들 클라우드 업체들은 자체 데이터 센터에 ASIC 칩을 배치하고 이들 칩의 사용을 확대하는 데 주력하고 있다.
구글을 대표로 하는 TechInsights 데이터에 따르면 지난해 구글은 조용히 세계 3위의 데이터센터 프로세서 설계회사로 CPU 최강자인 인텔과 GPU 최강자인 엔비디아에 이어 2위를 차지했다.구글 내부 워크로드는 TPU를 실행하고 외부에 칩을 판매하지 않는다.
아마존은 OpenAI의 경쟁사인 Anthropic에 여러 차례 투자해 이 회사와의 바인딩을 심화시켰다.Anthropic은 Amazon의 Trainium을 사용했습니다.아마존은 최근 Anthropic에 사용되는 Rainier 슈퍼컴퓨터 클러스터 프로젝트가 곧 완료될 것이며, 아마존은 다른 고객들의 Trainium 수요를 충족시키기 위해 더 많은 생산 능력을 건설하고 있다고 밝혔다.
맞춤형 칩 제조업체인 브로드컴, Marvell의 관련 주문은 바로 이러한 클라우드 제조업체에서 나온 것이다.이 중 구글, 메타의 ASIC 칩은 브로드컴과 협력해 맞춤형으로 제작됐다.구글뿐 아니라 JP모건 애널리스트들은 메타가 브로드컴에 10억 달러의 수익을 가져다 줄 다음 ASIC 고객이 될 것으로 전망했다.아마존은 칩 제조업체인 Marvell과 협력하고 있다.이달 초 아마존 AWS는 아마존이 반도체 포트폴리오와 전용 웹하드웨어를 배치할 수 있도록 AI와 데이터센터 연결 제품에 대한 협력을 확대하기로 Marvell과 5년 계약을 맺었다.
실적에서 2024 회계연도에 브로드컴의 수입은 전년 동기 대비 44% 증가한 516억 달러를 기록했다.이 회계연도에 브로드컴의 인공지능 수입은 전년 동기 대비 220% 증가한 122억 달러에 달해 회사의 반도체 수입이 기록적인 301억 달러에 달하도록 추진했다.브로드컴은 또 2025 회계연도 1분기 수입이 전년 동기 대비 22% 증가할 것으로 전망했다.
Marvell이 이달 초 발표한 2025 회계연도 3분기 실적 발표에 따르면, 이 분기 회사의 매출은 15억 1600만 달러로 전년 동기 대비 7%, 전분기 대비 19% 증가했다. 이 회사는 전분기 대비 성장 폭이 이전에 안내한 중간점보다 높다며 다음 분기 매출은 전분기 대비 19% 증가할 것으로 전망했다.Marvell은 3분기 실적과 4분기 실적 강세에 대한 기대는 주로 맞춤형 AI 칩 프로젝트에 의해 추진되었으며, 이들 프로젝트는 이미 양산을 시작했으며 2026 회계연도에도 수요가 강세를 유지할 것으로 예상된다고 밝혔다.
구글 말고도,Meta、아마존 같은 클라우드 업체들은OpenAI、애플도 이런 ASIC 맞춤형 칩 업체와 협력한다는 소식을 여러 차례 전했다.최근 애플은 AI 서버 칩을 개발하고 있으며, 브로드컴과 협력하여 이 칩 네트워크 기술을 개발하고 있다는 소식을 전했고, OpenAI는 이전에 브로드컴과 협력하여 수개월 동안 AI 추리 칩을 구축했다고 전했다.
ASIC 스타트업이 고객을 망라하다
클라우드 제조업체는 자체로 큰 모형을 연구하고 투자를 통해 일부 큰 모형 창업 회사를 묶었는데, ASIC 맞춤형 제조업체와 합작한 자체 연구 칩은 이러한 큰 모형 훈련과 추리에 사용되며, 외부 판매에 의존할 필요가 없다.ASIC 스타트업은 다르다. 그들은 서로 다른 칩 대리 공상을 선택했고, 스스로 고객을 찾아야 한다.
이 중 웨이퍼급 칩을 출시한 Cerebras Systems는 TSMC 생산에 칩을 맡겼고, Etched의 Sohu 칩은 TSMC 4nm 공정을 채택했다.근접 메모리 컴퓨팅 아키텍처를 사용하는 Groq LPU 칩은 제조 공정에 대한 요구가 그렇게 높지 않으며 GlobalFoundries의 14nm 공정을 사용합니다.
이들 ASIC 스타트업은 전 세계적으로 고객을 끌어들이고 있으며, AI를 배치하고 있는 중동 국가에서 고객을 찾는 것이 일부 ASIC 스타트업의 공동 선택이 되고 있다.Cerebras Systems가 공개한 자료에 따르면 2023년 Cerebras Systems의 순매출은 거의 7900만 달러, 올해 상반기에는 1억 364만 달러에 달한다.2023년에 아랍에미리트 아부다비에서 온 G42는 전체 수입의 83% 를 차지했고, G42는 내년에 14억 3천만 달러 상당의 Cerebras Systems 제품과 서비스를 구매하겠다고 약속했다.
9월 사우디아라비아의 AI 정상회의에서도 Cerebras Systems, Groq, 또 다른 AI 칩 스타트업인 SambaNova Systems의 모습을 봤다.Cerebras Systems는 당시 사우디 아람코와 양해각서를 체결했으며, 사우디 아람코는 Cerebras Systems의 제품으로 대형 모델을 훈련하고 배치할 계획이다.
Groq는 사우디 아람코의 디지털 및 기술 자회사와 협력하여 사우디에 세계 최대 규모의 추리 데이터 센터를 건설할 계획이며, 이 데이터 센터는 올해 말 건설되어 초기 1만 9천 개의 Groq LPU를 포함하였으며, 향후 20만 개의 LPU로 확장될 전망이다.심바노바 시스템즈 홈페이지에 따르면 이 회사도 두바이 회사인 솔리더스 AI 테크와 협력해 유럽의 고성능 컴퓨팅 데이터센터에 심바노바 클라우드를 제공하고 중동, 남아시아, 유럽, 아프리카 지역에서 사업을 하는 캔버스 AI 회사와 협력해 기업에 AI 솔루션을 공급할 계획이다.
이밖에 기업공식사이트에 따르면 SymbaNova Systems는 미국 아공국가실험실과 합작했다.Groq는 미국 및 캐나다 정부 부처를 대상으로 IT 방안을 제공하는 업체인 Carahsoft와 협력하고 에너지 분야의 Earth Wind & amp;파워가 협력해 노르웨이에 AI 컴퓨팅 센터를 건설할 계획이다.
전용과 공통의 논쟁
GPU와 ASIC 모두 현재 장단점이 뚜렷하다.GPU는 범용보다 뛰어나 많은 알고리즘을 실행할 수 있고 엔비디아 CUDA 생태가 성숙해 사용 편의성을 갖추고 있다. 범용 GPU는 계산력과 전력 소비량이 어느 정도 낭비된다는 단점이 있다.ASIC는 상대적으로 전용이며 특정 알고리즘에 대한 설계로 계산력과 전력 소비량이 더 우수할 수 있습니다.Groq의 LPU의 경우, 이 회사는 LPU 속도가 엔비디아 GPU보다 10배 빠르다고 말하지만, 가격과 전력 소비량은 후자의 10분의 1에 불과하다.그러나 전용 ASIC일수록 많은 알고리즘을 용인하기 어렵다. GPU에서 달리던 큰 모델이 ASIC로 이전해 실행하는 것이 반드시 쉽지 않고 전체적으로 사용성도 GPU보다 낮다.
ASIC의 점점 더 맹렬한 공세 속에서 두 종류의 칩이 곧 승부를 가릴 것인가?아니면 자본시장의 브로드컴에 대한 낙관론이 엔비디아에 대한 시장 예상을'반식'한 것이 아닌가?브로드컴의 시가총액이 조 달러에 이르렀을 때, 미국 주식은 지난 금요일부터 이번 주 화요일까지 엔비디아의 주가가 3일 연속 하락했다."당신은 엔비디아가 필요하지만, 시장도 그 외에 다른 수혜자가 있다고 말하고 있다고 생각한다."신탁투자회사 Truist 공동 최고투자책임자 키스 러너 (Keith Lerner) 는 논평했다.그러나 일부 칩업계인사는 GPU와 ASIC의 쟁탈은 통용칩과 전용칩의 쟁탈로 볼수 있는데 이런 차원에서 볼 때 두가지 칩은 일정한 시간내에 모두 이동할수 있는 공간이 있어 단순한 한쪽이 한쪽의 관계를 대체하는것이 아니라고 인정했다.
사용 장면을 보면, 한 업계 인사는 기자에게 GPU는 여전히 대량의 병렬화 범용 용례에 사용되어야 하며, 그 밖의 다른 수요는 추리단에서 저전력 AISC를 사용하는 등 원가가 더 낮은 ASIC를 사용할 수 있다고 말했다.맥킨지의 연구도 미래 AI 작업량이 주로 추리로 전환돼 2030년까지 ASIC 칩을 장착한 AI 가속기가 대부분의 AI 워크로드를 처리할 것으로 보고 있다.
그러나 구체적으로 앞으로 ASIC가 얼마나 큰 AI 칩 시장 점유율을 차지할 수 있을지는 여전히 변수가 있을 수 있다. 이런 변수는 GPU의 ASIC 칩 장점 흡수에서 나온다.안모과학기술제품총감 보민기는 기자에게 GPU가 반드시 기타 칩으로 대체되는것은 아니라고 표시했다.GPU는 주로 AI 클라우드에서 응용되며 GPU는 openCL cuda나 SYCL과 같은 소프트웨어 프로그래밍 생태 모드에 더 쉽게 접속할 수 있어 편리성을 갖추고 있다.에너지 효율 측면에서 볼 때, GPU는 더 많은 멀티스레드 컨텍스트 전환 비용을 가져올 수 있으며, 이러한 비용은 무시할 수 없다.이로부터 볼 때, 앞으로 엔드 사이드 장면에서 GPU와 기타 칩은 점차 융합으로 나아갈 것이지, 서로 대체하는 것이 아니다.엔비디아 H100의 Tensor Core (장량 처리 장치) 가 이미 더 많은 Tensor 전용 기술을 도입했듯이 칩 사이에는 이미 상대방의 장점을 취하여 점차 자신의 단점을 보완하고 있다.
천신과학기술 회장 천웨이도 에너지 소모와 같은 고등 단점에 대해 GPU는 여전히 자체 범주 내에서 개량할 수 있으며, 이러한 개량은 바로 전용 칩을 흡수하는 장점이라고 생각한다.
"GPU와 다른 AI 칩 아키텍처 사이에는 두 방면의 힘이 게임에 있다. 신구는 이것저것 줄어든다.마이크로소프트, 테슬라, 구글 등은 이미 더 전용 칩을 연구하는 노선으로 나아가고 있다. 엔비디아는 여전히 GPU를 하고 있지만 그 노선도 원래의 전통적인 GPU에서 더 전용 컴퓨팅 구조로 바뀌고 있다. 그 Tensor Core 부분은 이미 원래의 CUDA Core 부분을 훨씬 능가한다."천웨이는 기자에게 말했다.
현재 점점 더 큰 모델에 특화된 ASIC 칩이 등장하고 있으며, 더 극한의 전용성을 통해 칩의 효율을 높이고 있다.예를 들어 Etched는 메인스트림 대형 모델이 기반으로 하는 Transformer 아키텍처를 칩 Sohu에 고정하여 8개의 Sohu를 통합한 서버 성능이 160개의 엔비디아 H100 GPU에 필적한다고 주장한다.천웨이는 기자에게 앞으로 대형 모델 응용에 대한 전용 GPU가 나올 수도 있다고 추측했다. GPU 제조업체는 Tensor Core 구조를 더욱 개선해 메모리 지원 능력의 일부를 희생할 확률이 높다.
그러나 이런 극한의 전용성도 양날의 검이다.또 다른 업계 관계자는 기자에게"현재 AI의 주류 아키텍처는 Transformer"라며"앞으로 AI 아키텍처가 진화함에 따라 Transformer가 반드시 종국이 아닐 것"이라며"이 과정에서 통용되는 GPU는 계속 채택될 수 있지만 AI 주류 아키텍처가 변화할 때 특히 전용 ASIC 칩은 적응할 수 없을 것"이라고 말했다.
이런 측면에서 ASIC도 범용성을 포기할 위험을 고려해야 한다."(GPU 범용성의 중요성은) 확실히 그렇습니다."보민기는 기자에게 Transformer가 바뀌면 GPU가 우위를 점할 것이라고 말했다.NPU의 경우, 한편으로는 원래 DSA (특정 영역 아키텍처) 가 알고리즘 프로세스 변화에 대응하지 못할 수 있기 때문에 일부 벡터 컴퓨팅에 대해 더 많은 범용 능력을 도입하는 것을 고려해야 한다.다른 한편으로 통용적인 계산능력을 갖춘 상황에서 칩은 특정한 계산류형에 최적화되지 않아 성능병목에 부딪칠수 있다.그러므로 설계할 때 더욱 많은 통용계산능력을 도입하여 계산법 등의 변화에 적응해야 할뿐만아니라 통용계산능력과 특정임무를 수행하는 성능도 균형잡아야 한다.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

Archiver|手机版|小黑屋|www.LogoMoeny.com

GMT+8, 2024-12-26 03:22 , Processed in 0.108164 second(s), 8 queries , Redis On.

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表