Финтех-гигант Джека Ма использует чипы собственного производства Alibaba и Huawei для обучения моделей искусственного интеллекта, которые, в конечном счете, могут управлять конкуренцией графических процессоров Nvidia H800.
По словам людей, осведомленных в этом вопросе, Ant Group нашла способ обучения моделей ИИ на полупроводниках китайского производства, который снижает затраты примерно на 20 процентов по сравнению с консервативными методами.
Инсайдеры говорят, что результаты Ant соответствуют чипам H800 от Nvidia Corp., которые в настоящее время доступны китайским компаниям из-за экспортного контроля США. Хотя Ant по-прежнему использует оборудование Nvidia для некоторых своих работ по искусственному интеллекту, теперь, как сообщается, компания уделяет больше внимания процессорам AMD и китайским альтернативам для своих последних моделей.
В этом месяце Ant опубликовала исследовательскую работу, в которой утверждается, что ее модели Ling-Plus и Ling-Lite даже превзошли Meta Platforms Inc. в некоторых тестах. Если эти результаты подтвердятся, эти системы могут стать важным шагом вперед для китайского ИИ, что приведет к сокращению расходов на обучение и развертывание услуг ИИ.
В документе отмечается, что использование высокопроизводительного оборудования для обучения 1 триллиона токенов стоит примерно 6,35 млн юаней (около $880 000). Но при бережном подходе компании и оборудовании с более низким качеством эта цифра снижается примерно до 5,1 млн юаней (около $700 000). Для тех, кто не в курсе, токены, по сути, являются единицами информации, используемыми интеллектуальными моделями для обучения и создания выходных данных.
Заглядывая вперед, Ant намерен использовать эти модели II для приложений здравоохранения и финансов. Ранее в этом году она приобрела китайскую онлайн-платформу Haodf.com, чтобы усилить свои услуги ИИ, ориентированные на здравоохранение. Ant также управляет приложением ИИ «Помощник по жизни» под названием Zhixiaobao и предлагает финансовые консультации ИИ под названием Maxiaocai.
Обе модели Ling имеют открытый исходный код: Ling-Lite содержит 16,8 млрд параметров, а Ling-Plus — 290 млрд. Хотя это весомые цифры, они все равно меньше, чем у некоторых других крупных моделей ИИ: эксперты полагают, что GPT-4.5 содержит около 1,8 трлн параметров, а DeepSeek-R1 — 671 млрд.
И признаем некоторые трудности на дороге, особенно в отношении стабильности во время обучения. В исследовательской работе отмечено, что небольшие изменения в оснащении или конструкции моделей иногда вызывали большие ошибки всплески частоты.
Выездной ресторан — Crystal Catering — crystal.com.kz