首页 신문 正文

'롤'켜!알리 가격 인하 바이두 무료

richeryang119
1363 0 0

5월 21일, 국산 대형모형은"권"을 열기로 약속했다.
알리가 통의천문 GPT-4급 주력모델의 97% 가격을 인하한다고 선포한데 이어 바이두 지능클라우드관미는 문심대모델 2대 주력모델이 전면적으로 무료이고 즉시 효력을 발생한다고 선포했다.
바이두가 공짜로 발표한 두 가지 큰 모델은 올해 3월 출시한 두 가지 경량급 큰 모델인 ERNIE Speed, ERNIE Lite로 8K, 128k 컨텍스트 길이를 지원하는 것으로 알려졌다.
21일 오전, 알리 클라우드는 방금 통의 천문 GPT-4급 주력 모델인 Qwen-Long을 발표했는데, API 입력 가격은 0.02위안/천tokens에서 0.0005위안/천tokens로 97% 하락하여 가격 인하 후 GPT-4 가격의 약 1/400이다.알아본데 따르면 이번 통의천문가격인하는 도합 9개의 상업화 및 오픈소스 계렬모형을 망라하는데 여기에는 Qwen-Long, Qwen-Max, Qwen1.5-72B 등이 포함된다.
가져오기 및 내보내기
가격 인하 폭에 미세한 차이가 있다
가격인하공고를 자세히 비교해보면 이번 아리통의대모델의 가격인하폭은"수입"과"수출"에서 미세한 차이가 있다는것을 쉽게 발견할수 있다.
이에 대해 알리 관계자는 기자에게"많은 사용자가 긴 텍스트와 결합해 모델에 질문을 하기 때문에 모델 입력 호출량이 출력 호출량보다 많은 경우가 많다"고 설명했다.통계에 따르면 실제 모델 입력 호출량은 일반적으로 출력의 8배 정도입니다."우리는 고객의 사용량이 가장 많은 입력 tokens의 가격을 대폭 낮추어 기업에 있어서 더욱 수지가 맞고 일반특혜를 더욱 잘 할수 있다.동시에 입력가격을 극치로 치는 것도 모두가 진정으로 긴 텍스트를 사용할 수 있기를 바란다"고 말했다.
통의천문 주력모델인 Qwen-Long의 경우 컨텍스트 길이가 최대 천만명에 달하며 API 입력가격은 0.02원/천tokens에서 0.0005원/천tokens로 97% 하락해 수출가격의 90% (하락폭) 보다 인하폭이 높다.방금 발표된 플래그십 모델인 Qwen-Max는 GPT-4-Turbo와 성능이 비슷해 API 입력 가격이 0.04원/천tokens로 67% 하락했지만 출력 가격은 당분간 조정되지 않았다.
이번에 바이두 문심대 모델의 양대 주력 모델이'수입','수출'가격을 모두 무료라고 발표한 것도 그 배경이 있다.
이번에 무료로 개방되는 두 가지 대형 모델인 ERNIE Speed, ERNIE Lite는 바이두가 지난 3월 최근 발표한 경량급 대형 모델로 8K와 128k 컨텍스트 길이를 지원하며 기업 애플리케이션 대형 모델의'효가비'를 높이기 위한 것으로 알려졌다.
초대규모 파라미터의 큰 모델에 비해 경량급 큰 모델의 파라미터 양은 더욱 작고, 고객이 특정 사용 장면에 대해 모델 정밀 조정을 진행하는데 더욱 편리하며, 사용 효과 예상을 더욱 쉽게 달성할 수 있으며, 동시에"양을 줄이고 효과를 줄이지 않는다"를 실현하여 불필요한 투자를 절약할 수 있다.
구체적으로 ERNIE Speed는 추리 장면에서 최대 128k의 컨텍스트 길이를 가지고 있으며, 지식 문답 등의 작업을 처리할 때 컨텍스트의 의존 관계를 더 잘 처리하고 더욱 일관성 있고 정확한 예측 또는 답변을 생성할 수 있다.동시에 특정 장면에 대해 ERNIE Speed를 베이스 모델로 정교하게 조정할 수 있으며, 모델 효과는 플래그십급 큰 매개변수 규모의 큰 모델을 따라잡거나 추월할 수 있어 효가보다 크게 향상된다.
ERNIE Lite는 ERNIE Speed보다 매개변수 양이 적고 저계산력의 AI 가속 카드에 탑재되어 추리 작업을 처리하기에 더욱 적합하며, 모델 효과와 추리 성능을 모두 고려하는 동시에 고객의 착지 응용 비용을 대폭 낮춘다.
이밖에 ERNIE Lite는 감정분석, 멀티태스킹학습, 자연추리 등 장면에서의 응용효과가 20% 제고되였다.추리 호출 비용이 53% 대폭 하락했다.
가격 인하와 무료 배후
큰 모형은 기업급 응용생태를 깊이있게 구축한다
이에 앞서 5월 15일, 바이트댄스는 자체 개발한 호빵 주력 모델의 기업 시장 정가를 발표했는데, 업계보다 99.3% 싸고, 1위안으로 호빵 125만 Tokens를 살 수 있다. 약 200만 개의 한자로,"삼국연의"세 권에 해당하며, 국내 대형 모델 시장의"가격 전쟁"을 일으킨 것으로 여겨진다.
대형 모델의 성능이 점차 향상됨에 따라 AI 응용 혁신은 밀집 탐색기에 접어들고 있으며, 더 많은 기업과 기관도 이미 맹목적인 기술 숭배 노선에서 벗어났으며, 왕왕 대형 모델의 사용 효과, 성능 및 원가, 즉"효가비"를 종합적으로 고려해야 하는데, 이는 대형 모델이 기업과 생태단에서의 착지에도 직접적인 역할을 한다.
그리고 이번 통의, 문심, 호빵의 가격 인하는 기업급 응용 시장을 겨냥하지 않는 것이 없다.
인터넷 평론가 왕여우천은 올해 국산 대형 모델 경쟁은 확실히 분위기가 있고 해외 OpenAI와의 경쟁도 포함되지만 가격 전쟁은 가장 주요한 것이 아니라고 말했다.
왕여신은 다음과 같이 인정했다. 국산 대형모형은 올해부터 응용을 강화하고 특히 생태건설을 추진하기 시작했다. 알리가 개원경로를 강조하고 이른바 가장 개방된 클라우드처럼 그의 클라우드내포는 이미 확충되였고 AI도 클라우드서비스의 중요한 구성으로 되였다.그러나 현 단계에서 업계 고객의 생존에 압력이 있으며, AI의 착지 성과는 여전히 점차 검증되고 있다.만약 올라오면 중첩서비스이고 가격은 우대가 없으며 고객의 호응동력이 부족하다.그래서 공공 클라우드나 대형 모델 차원에서 알리가 잇달아 가격 인하를 제안해 고객들이 원가의 절약을 직접 느낄 수 있도록 했다.
물론 큰 모델의 가격 인하도 클라우드 플랫폼, 큰 모델 제조업체의 계산력, 추리 등 원가 방면의 하강 곡선 지탱을 떠날 수 없으며, 이는 알리, 바이두 등 선두 회사의 큰 모델 가격 인하를 위한 조건을 마련하였다.
알리 클라우드 스마트 그룹의 선임 부사장이자 공공 클라우드 사업부 회장인 류웨이광이 말했듯이"오늘 우리는 매우 많은 장면이 추리에 더 높은 요구를 제기하는 것을 보았다. 모델의 크기와 컨텍스트의 길이가 끊임없이 커지고 응용 장면이 점차 다양해지면서 추리 자원의 규모가 점점 커지고 장면의 복잡도가 점점 높아지고 있다.이때 모델의 추리 효과, 성능, 비용은 하나의'불가능 삼각형'이 되어 모두 최우수에 도달하기 어렵다"고 말했다.
류웨이광의 견해에 의하면 추리의 최적화는 많은 기업에 있어서 핵심적인 연구방향으로 될수도 없고 될수도 없다.알리 클라우드에게는'밥그릇'이라고 할 수 있을 정도로 중요하다.대규모 추리 클러스터 최적화는 바로 알리 클라우드가 연마한 핵심 능력이며, 불가능한 삼각형을 타파하는 승부수이며, 모두에게 효과가 좋고 성능이 우수하며 원가가 낮은 추리 서비스를 제공할 수 있는 보장이다."알리 클라우드가 이번에 대형 모델 추리 가격을 대폭 낮춘 것은 AI 애플리케이션의 폭발을 가속화하려는 것이다.우리는 앞으로 대형 모델 API의 호출량이 수천만 배로 증가할 것으로 예상한다"고 말했다.
왕여신은 다음과 같이 솔직하게 말했다. 큰 모형의 가격인하의 배후에는 클라우드업무의 성장을 추동하는것이 있다.클라우드 컴퓨팅이 더 큰 규모가 없다면 SaaS 생태는 매우 작기 때문에 클라우드 플랫폼의 이윤 지표는 어디까지 좋지 않을 것이다.표면적으로 볼 때, 가격 인하는 큰 모델이며, 결국 경쟁은 막후의 클라우드 컴퓨팅 플랫폼에 구현되어 성장을 추진해야 한다.이는 류웨이광이"공공 클라우드 + API가 기업이 큰 모델을 사용하는 주류 방식이 될 것"이라고 더욱 강조한 밑바닥 이유이기도 하다.
상해인공지능산업연구원 원장 주조영은 다음과 같이 표시했다. 대형모형제조업체에 있어서 가격인하는 사용자를 유치하는 중요한 수단이지만 장기적으로 볼 때 기술혁신과 제품최적화를 통해서만 진정으로 경쟁우세를 유지할수 있다."볼륨" 가격뿐만 아니라 더욱"볼륨"기술,"볼륨"제품, 전방위적인"볼륨"이 있어야만 새로운 출로를 찾을 수 있다.
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

richeryang119 新手上路
  • 粉丝

    0

  • 关注

    0

  • 主题

    2