Логотип

AerynOS блокирует использование LLM, ссылаясь на данные об этическом обучении и экологических издержках

AerynOS блокирует использование LLM, ссылаясь на данные об этическом обучении и экологических издержках

Использование искусственного интеллекта стало актуальной темой для многих проектов с открытым исходным кодом, и многие из них уже заняли чёткую позицию по этому вопросу. Теперь к этому разговору присоединился AerynOS, дистрибутив Linux на основе атомарных обновлений, который всё ещё находится в разработке и в настоящее время находится на стадии альфа-тестирования.

Дистрибутив объявил на Reddit, что официально принял общепроектную политику, запрещающую использование LLM (больших языковых моделей) в процессе разработки и в работе сообщества, сославшись на этические, экологические, качественные и юридические проблемы.

Согласно новым правилам, контент, созданный с помощью LLM, не принимается ни в одной из частей проекта, включая исходный код, документацию, отчёты о проблемах и иллюстрации.

Сопровождающие проект специалисты называют несколько причин такого решения:

  • Этические проблемы, связанные со сбором данных для обучения этих моделей.
  • Непропорциональное потребление электроэнергии и воды при их создании / эксплуатации.
  • Потенциальное негативное влияние контента, созданного с помощью LLM, на качество.
  • Возможные нарушения авторских прав.

 

Однако предусмотрены некоторые исключения. Участники могут использовать языковые модели только для перевода текста на английский язык в сообщениях или комментариях. В проекте указано, что могут быть рассмотрены дополнительные исключения для случаев, связанных с доступностью.

Помимо запрета контента, команда AerynOS также обратила внимание на роль больших языковых моделей в поддержке пользователей. Проект настоятельно не рекомендует использовать чат-ботов с искусственным интеллектом вместо обращения к официальной документации.

Читать  AMD наконец-то может использовать подход Nvidia DLSS для масштабирования

Кроме того, запросы в службу поддержки, в которых упоминаются вводящие в заблуждение или неверные результаты работы LLM, могут быть проигнорированы, поскольку разработчики не хотят тратить время на поиск ошибок, возникающих из-за ответов сторонних ИИ-систем, прежде чем обращаться за помощью к людям.

Эта политика будет действовать и в дальнейшем и направлена на сохранение вклада разработчиков, прошедших проверку, и поддержание технической надёжности проекта. Для получения дополнительной информации см. руководство по участию в AerynOS.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:
0 0 голоса
Рейтинг статьи
Подписаться
Уведомить о
guest

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала