Gentoo и NetBSD запрещают код, написанный ИИ, а Debian пока нет
Проект Debian решил не присоединяться к Gentoo Linux и NetBSD и отказываться от программного кода, созданного с помощью инструментов ИИ, таких как Copilot от Github.
Первым проектом FOSS, запрещающим код, созданный большими языковыми моделями, был Gentoo, который в середине апреля
издал политику, запрещающую ИИ-код. На этой неделе проект NetBSD о
бновил свои рекомендации по внесению изменений в похожем ключе.
Примечательно, что в случае NetBSD «код, созданный с помощью большой языковой модели или аналогичной технологии», «предположительно является испорченным кодом и не должен использоваться без предварительного письменного разрешения». Таким образом, хотя данная политика может технически разрешить участие ИИ в будущем, за ним необходим человеческий надзор.
Между тем, Gentoo Linux более прямо говорит о полном запрете инструментов искусственного интеллекта. Этически опасения Gentoo подчеркивают, что коммерческие проекты ИИ «часто допускают вопиющие нарушения авторских прав при обучении своих моделей», нещадно используют природные ресурсы и что программы, написанные с помощью ИИ-моделей, расширяют возможности мошенников.
Такие решения известных проектов FOSS показывают, что для достижения наилучших результатов нам по-прежнему нужна квалифицированная работа отдельных людей, а не машин. Впрочем, до сих пор существует ветка, в которой обсуждается использование контента, созданного искусственным интеллектом, в проекте Debian.
Как отмечает портал The Register, разработчики тонут в коде, который полностью написан вручную десятками тысяч людей на протяжении десятилетий. Кодовая база любой современной ОС общего назначения уже слишком велика, чтобы один человек мог ее прочитать, переварить и изменить в целом. Например, в Debian 12 содержится более 1,3 млрд строк кода, это 116 ГБ.
В то же время, если дополнять этот код возьмется большая языковая модель, то невозможно застраховаться от плагиата, поскольку нейросеть, обученная на других открытых проектах, может предлагать разработчику взятые из них строки, при этом сам разработчик сознательно ничего не копировал. Таким образом, это создаст проблемы владению дистрибутивом Linux. Другой вопрос: если чат-бот скопировал в коде уязвимости, кто будет виноват? Программист, который предоставил код, даже если он не писал его сам? Программист, который писал код, предложенный чат-ботом? Разработчик чат-бота?
Между тем, владелец Github, Microsoft, не передает исходный код какой-либо из своих собственных операционных систем в обучающие данные ИИ-моделей.
Экологическая проблема, описанная Gentoo Linux, заключается в потребности новых мощных процессоров и приводит к быстрому устареванию предыдущих моделей, которые отправляются в утиль. Кроме того, ИИ потребляет неслыханные объемы электроэнергии и воды для охлаждения. Наконец, этический аспект использования ИИ – это вымещение им с работы дорогих и капризных сотрудников-людей.
Наконец, The Register упоминает смешные прозвища, которые известные исследователи дали искусственному интеллекту, например, «галлюцинаторное недопонимание» или «стохастический попугай», что лишь подчеркивает известный факт о том, что искусственный интеллект не является никаким интеллектом, а вся его деятельность – это лишь экстраполяция данных, созданных человеком. Всю ситуацию как никуда лучше описывает язвительное наблюдение автора cURL Дэниела Штернберга: «I в LLM означает интеллект».
Источник:
https://www.theregister.com/2024/05/18/distros_ai_code/
#ИИ #код #Linux