ИИ и экология: Углеродный след
ИИ-запросы могут генерировать в 50 раз больше выбросов CO₂, в зависимости от модели и сложности задачи. Исследование выявило, что сложные вопросы и модели с высоким числом токенов увеличивают углеродный след, призывая к энергоэффективным решениям.
Новое исследование, опубликованное в журнале Frontiers in Communication, выявило значительные различия в углеродном следе различных моделей искусственного интеллекта (ИИ). Согласно данным, некоторые запросы к большим языковым моделям (LLM) могут генерировать до 50 раз больше выбросов углекислого газа, чем другие, в зависимости от сложности задачи и типа используемой модели.
Исследователи из Университета прикладных наук Хохшуле Мюнхен в Германии проанализировали 14 различных языковых моделей, оценив их энергопотребление и выбросы CO₂ на основе стандартного набора из 500 вопросов по разным темам. Результаты показали, что модели, способные к сложным рассуждениям, такие как Cogito с 70 миллиардами параметров, производят значительно больше выбросов — в три раза больше, чем модели аналогичного размера, дающие краткие ответы. Точность Cogito составила 84,9%, но это сопровождалось высоким энергопотреблением.
Ключевым фактором, влияющим на выбросы, является количество «токенов мышления» — дополнительных единиц данных, которые модели, ориентированные на рассуждения, генерируют перед выдачей ответа. Такие модели в среднем создавали 543,5 токенов на вопрос, тогда как более простые модели — всего 37,7 токенов. Большее количество токенов напрямую коррелирует с увеличением выбросов CO₂, независимо от правильности ответа.
Сложные запросы, например, по абстрактной алгебре или философии, приводили к выбросам до шести раз выше, чем простые вопросы, такие как исторические факты для школьников. Например, модель DeepSeek R1 с 70 миллиардами параметров при обработке 600 тысяч вопросов генерирует выбросы, эквивалентные перелёту туда-обратно из Лондона в Нью-Йорк. В то же время модель Qwen 2.5 с 72 миллиардами параметров может обработать в три раза больше вопросов — около 1,9 миллиона — с аналогичным уровнем выбросов и точности.
Исследователи подчеркивают, что результаты не являются окончательными, поскольку выбросы зависят от используемого оборудования и источников энергии. Однако они призывают пользователей ИИ быть более осознанными. «Пользователи могут значительно сократить выбросы, запрашивая краткие ответы или используя высокопроизводительные модели только для задач, действительно требующих их мощности», — отметил доктор Даунер, один из авторов исследования.
Это исследование подчеркивает компромисс между точностью и экологичностью в работе ИИ. По мере роста популярности языковых моделей, таких как ChatGPT, с около 52% американцев, регулярно использующих LLM, вопрос их экологического воздействия становится всё более актуальным. Авторы исследования призывают к разработке более энергоэффективных моделей и повышению прозрачности в отношении их углеродного следа.