25 апр. 2024 г.

По мнению Дэна Хендрикса, директора Центра безопасности ИИ, каждое новое поколение модели GPT требует существенного увеличения вычислительных мощностей . Переход от четвертой к пятой версии предполагает увеличение необходимых ресурсов в сто раз, что эквивалентно круглосуточной работе миллиона графических процессоров H100 на протяжении трех месяцев .
Дарио Амодеи, генеральный директор Anthropic, подтверждает эти выводы, указывая на текущие затраты на обучение языковых моделей, составляющие около $1 млрд, и прогнозируя их рост до $5-10 млрд к 2025 году .
Также стоит отметить, что растущие потребности в вычислительных мощностях сопровождаются увеличением энергопотребления . Прогнозируется, что в 2027 году глобальное энергопотребление центрами обработки данных может достичь 85-134 ТВтч, что подчеркивает необходимость поиска более эффективных методов обучения моделей .
В этом контексте эксперты высказывают предположение о том, что для сохранения конкурентных преимуществ OpenAI может потребоваться оптимизация процесса обучения, который в настоящее время зависит от обширных наборов данных, собранных из человеческих диалогов . Это может привести к разработке промежуточной версии модели, GPT-4.5, вместо прямого перехода к GPT-5. , предполагаемого к выпуску в 2024 году, эксперты предупреждают о возможных задержках связанных с необходимостью значительных инвестиций в ресурсы .
Оставить комментарий