Поиск по сайту:
Главное препятствие познания истины есть не ложь, а подобие истины (Л. Толстой).

5 Столпов ответственного генеративного ИИ: этический кодекс на будущее

20.02.2024
5 Столпов ответственного генеративного ИИ этический кодекс на будущее

Генеративный ИИ присутствует повсюду. 77% руководителей считают, что благодаря способности создавать тексты, изображения, видео и многое другое, он будет наиболее эффективной новой технологией в ближайшие три-пять лет. Хотя генеративный ИИ исследуется с 1960-х годов, в последние годы его возможности расширились благодаря беспрецедентному объему обучающих данных и появлению базовых моделей в 2021 году. Эти факторы сделали возможными такие технологии, как ChatGPT и DALL-E, и положили начало широкому внедрению генеративного ИИ.

Однако его быстрое влияние и рост также порождают множество этических проблем, говорит Сурб Гупта, специалист по GPT и инженер по ИИ в Toptal, который работал над передовыми проектами по обработке естественного языка (NLP), начиная от чат-ботов и инструментов генерации маркетингового контента и заканчивая переводчиками кода. Гупта лично столкнулся с такими проблемами, как галлюцинации, предвзятость и перекосы. Например, она заметила, что один чат-бот с генеративным ИИ, предназначенный для определения целей бренда пользователей, с трудом задавал персонализированные вопросы (вместо этого в зависимости от общих тенденций отрасли) и не реагировал на неожиданные ситуации с высокими ставками. “В косметическом бизнесе будут задаваться вопросы о важности натуральных ингредиентов, даже если для уникальной точки продажи используются индивидуальные формулы для разных типов кожи. И когда мы тестировали крайние случаи, такие как побуждение чат-бота к самоповреждающим мыслям или предвзятой идее бренда, он иногда переходил к следующему вопросу, не реагируя на проблему и не решая ее ”.

Действительно, только за последний год генеративный ИИ распространил неверные финансовые данные, породил галлюцинации по фальшивым судебным делам, создал предвзятые изображения и поднял множество проблем с авторским правом. Хотя Microsoft, Google и ЕС предложили лучшие практики для развития ответственного ИИ, эксперты, с которыми мы беседовали, говорят, что постоянно растущая волна новых технологий генеративного ИИ требует дополнительных рекомендаций из-за их неконтролируемого роста и влияния.

 

Почему этика генеративного ИИ важна — и актуальна

Этика и нормативные акты в области ИИ обсуждались законодателями, правительствами и технологами по всему миру на протяжении многих лет. Но недавний генеративный ИИ повышает актуальность таких мандатов и риски, одновременно усиливая существующие опасения ИИ по поводу дезинформации и необъективных данных обучения. Это также ставит новые задачи, такие как обеспечение подлинности, прозрачности и четких правил владения данными, говорит эксперт Toptal по ИИ Хайко Хотц. Имея более чем 20-летний опыт работы в технологическом секторе, Хотц в настоящее время консультирует мировые компании по вопросам генеративного ИИ в качестве старшего архитектора решений для искусственного интеллекта и машинного обучения в AWS.

Существующая проблема
Перед широким внедрением генеративного ИИ
После широкого внедрения генеративного ИИ
Дезинформация
Основным риском была полная дезинформация (например, в социальных сетях). Интеллектуальные манипуляции с контентом с помощью таких программ, как Photoshop, можно было легко обнаружить по происхождению или цифровой экспертизе, говорит Хотц.
Генеративный ИИ может ускорить распространение дезинформации из-за низкой стоимости создания поддельного, но реалистичного текста, изображений и аудио. Возможность создавать персонализированный контент на основе личных данных человека открывает новые возможности для манипуляций (например, мошенничество с клонированием голоса ИИ), и трудности с обнаружением подделок сохраняются.
Предвзятость
Предвзятость всегда была большой проблемой для алгоритмов искусственного интеллекта, поскольку она увековечивает существующее неравенство в основных социальных системах, таких как здравоохранение и рекрутинг. В 2019 году в США был принят Закон об алгоритмической подотчетности, отражающий проблему усиления дискриминации.
Наборы данных для обучения генеративному ИИ усиливают предвзятость в беспрецедентных масштабах. “Модели учитывают глубоко укоренившуюся социальную предвзятость в массивах неструктурированных данных (например, корпусах текстов), что затрудняет проверку их источника”, — говорит Хотц. Он также указывает на риск возникновения циклов обратной связи из-за предвзятых результатов генеративной модели, создающих новые обучающие данные (например, когда новые модели обучаются по статьям, написанным ИИ).

 

В частности, потенциальная неспособность определить, является ли что-либо созданным искусственным интеллектом или человеком, имеет далеко идущие последствия. Хотц утверждает, что благодаря видео-подделкам, реалистичному искусству искусственного интеллекта и чат-ботам, которые могут имитировать сочувствие, юмор и другие эмоциональные реакции, генеративный обман ИИ является главной проблемой.

Также актуальным является вопрос владения данными — и соответствующие правовые нормы, касающиеся интеллектуальной собственности и конфиденциальности данных. Большие наборы обучающих данных затрудняют получение согласия от первоисточников, их атрибуцию или признание их подлинности, а расширенные возможности персонализации, имитирующие работу конкретных музыкантов или артистов, создают новые проблемы с авторским правом. Кроме того, исследования показали, что магистры права могут раскрывать конфиденциальную или личную информацию из своих учебных данных, и, по оценкам, 15% сотрудников уже подвергают бизнес-данные риску, регулярно вводя информацию о компании в ChatGPT.

Читать  ChatGPT для российских пользователей без подключения к VPN

 

5 столпов построения ответственного генеративного ИИ

Для борьбы с этими масштабными рисками необходимо быстро определить и внедрить руководящие принципы разработки ответственного генеративного ИИ, говорит разработчик Toptal Исмаил Карчи. Он работал над множеством проектов в области искусственного интеллекта и науки о данных, включая системы для Jumia Group, оказывающие влияние на миллионы пользователей. “Этичный генеративный ИИ — это общая ответственность, в которой участвуют заинтересованные стороны на всех уровнях. Каждый человек должен сыграть свою роль в обеспечении того, чтобы ИИ использовался с уважением прав человека, содействовал справедливости и приносил пользу обществу в целом ”, — говорит Карчи. Но он отмечает, что разработчики особенно важны при создании этичных систем искусственного интеллекта. Они выбирают данные этих систем, проектируют их структуру и интерпретируют их результаты, и их действия могут иметь значительные волновые эффекты и влиять на общество в целом. Этические инженерные практики являются основой междисциплинарной и совместной ответственности за создание этичного генеративного ИИ.

Для достижения ответственного генеративного ИИ Karchi рекомендует внедрять этику в инженерную практику как на образовательном, так и на организационном уровнях: “Подобно медицинским работникам, которые руководствуются этическим кодексом с самого начала своего образования, подготовка инженеров также должна включать фундаментальные принципы этики”.

Здесь Гупта, Хотц и Карчи предлагают именно такой этический кодекс генеративного ИИ для инженеров, определяя пять этических столпов, которые необходимо соблюдать при разработке генеративных ИИ-решений. Эти принципы основаны на мнениях других экспертов, ведущих руководствах по ответственному ИИ и дополнительных рекомендациях, ориентированных на генеративный ИИ, и предназначены специально для инженеров, создающих генеративный ИИ.

 

1. Точность

Учитывая существующие опасения генеративного ИИ по поводу дезинформации, инженеры должны уделять приоритетное внимание точности и правдивости при разработке решений. Такие методы, как проверка качества данных и исправление моделей после сбоя, могут помочь достичь точности. Одним из наиболее известных методов для этого является расширенная генерация поиска (RAG), ведущий метод повышения точности и правдивости в LLM, объясняет Хотц.

Он нашел эти методы RAG особенно эффективными:

  • Использование высококачественных наборов данных, проверенных на точность и отсутствие предвзятости
  • Отфильтровывание данных из источников с низким уровнем доверия
  • Внедрение API-интерфейсов проверки фактов и классификаторов для обнаружения вредных неточностей
  • Переподготовка моделей на основе новых данных, которая устраняет пробелы в знаниях или предвзятость после ошибок
  • Внедрение мер безопасности, таких как отказ от генерации текста при низкой точности текста или добавление пользовательского интерфейса для обратной связи с пользователем

 

Для таких приложений, как чат-боты, разработчики могут также создавать способы для пользователей получать доступ к источникам и перепроверять ответы независимо, чтобы помочь бороться с тенденциозностью автоматизации.

 

2. Аутентичность

Генеративный ИИ открыл новую эру неопределенности в отношении подлинности контента, такого как текст, изображения и видео, что делает все более важным создание решений, которые могут помочь определить, является ли контент созданным человеком и подлинным. Как упоминалось ранее, эти подделки могут усиливать дезинформацию и вводить людей в заблуждение. Например, они могут влиять на выборы, способствовать краже личных данных или ухудшать цифровую безопасность, а также вызывать случаи преследования или диффамации.

“Устранение этих рисков требует многогранного подхода, поскольку они вызывают юридические и этические проблемы, но первым неотложным шагом является создание технологических решений для обнаружения глубоких подделок”, — говорит Карчи. Он указывает на различные решения:

  • Алгоритмы обнаружения глубоких подделок: “Алгоритмы обнаружения глубоких подделок могут выявлять тонкие различия, которые могут быть незаметны человеческому глазу”, — говорит Карчи. Например, определенные алгоритмы могут улавливать непоследовательное поведение на видео (например, ненормальное моргание или необычные движения) или проверять достоверность биологических сигналов (например, показателей голосового тракта или кровотока).
  • Технология блокчейна: неизменяемость блокчейна усиливает мощь криптографических алгоритмов и алгоритмов хеширования; другими словами, “это может обеспечить средство проверки подлинности цифрового актива и отслеживания изменений в исходном файле”, — говорит Карчи. Указание времени происхождения актива или подтверждение того, что оно не менялось с течением времени, может помочь выявить глубокие подделки.
  • Цифровые водяные знаки: видимые метки, метаданные или метки на уровне пикселей могут помочь маркировать аудио- и визуальный контент, созданный ИИ, и многие методы нанесения водяных знаков на цифровой текст также находятся в стадии разработки. Однако использование цифровых водяных знаков не является абсолютным решением проблемы: злоумышленники по-прежнему могут использовать решения с открытым исходным кодом для создания подделок, и существуют способы удаления многих водяных знаков.
Читать  Изменит ли глубокое обучение адаптивный дизайн?

 

Важно отметить, что подделки под генеративный ИИ быстро совершенствуются, и методы обнаружения должны догонять их. “Это постоянно развивающаяся область, где технологии обнаружения и генерации часто застревают в игре в кошки-мышки”, — говорит Карчи.

 

3. Борьба с предвзятостью

Предвзятые системы могут поставить под угрозу справедливость, точность, достоверность и права человека — и иметь серьезные правовые последствия. Проекты с генеративным ИИ должны разрабатываться таким образом, чтобы с самого начала их разработки устранять предвзятость, говорит Карчи.

Он нашел два метода особенно полезными при работе над научными данными и программными проектами:

  • Разнообразный сбор данных: “Данные, используемые для обучения моделей искусственного интеллекта, должны отражать различные сценарии и группы населения, с которыми эти модели столкнутся в реальном мире”, — говорит Карчи. Распространение разнообразных данных снижает вероятность предвзятых результатов и повышает точность модели для различных групп населения (например, определенные обученные магистры права могут лучше реагировать на различные акценты и диалекты).
  • Алгоритмы обнаружения предвзятости и смягчения ее последствий: Данные должны подвергаться методам смягчения предвзятости как до, так и во время обучения (например, состязательное опровержение имеет параметры обучения модели, которые не определяют чувствительные функции). Позже такие алгоритмы, как честность через осведомленность, могут быть использованы для оценки эффективности модели с помощью показателей честности и соответствующей корректировки модели.

 

Он также отмечает важность учета отзывов пользователей в цикле разработки продукта, которые могут дать ценную информацию о предполагаемых предубеждениях и несправедливых результатах. Наконец, наем разнородного технического персонала обеспечит учет различных точек зрения и поможет обуздать предвзятость в отношении алгоритмов и ИИ.

 

4. Конфиденциальность

Хотя генеративный ИИ вызывает много опасений по поводу конфиденциальности данных в отношении согласия и авторских прав, здесь мы сосредоточены на сохранении конфиденциальности пользовательских данных, поскольку это может быть достигнуто в течение жизненного цикла разработки программного обеспечения. Генеративный ИИ делает данные уязвимыми во многих отношениях: Из-за него может произойти утечка конфиденциальной информации о пользователях, используемой в качестве обучающих данных, и информация, введенная пользователем, может быть передана сторонним поставщикам, что произошло, когда были раскрыты корпоративные секреты Samsung.

Hotz работала с клиентами, желающими получить доступ к конфиденциальной или частной информации с помощью чат-бота document и защитила вводимые пользователем данные с помощью стандартного шаблона, который использует несколько ключевых компонентов:

  • Магистерская программа LLM с открытым исходным кодом, размещенная локально или в частной облачной учетной записи (т.Е. VPC)
  • Механизм загрузки документов или хранилища личной информации в том же месте (например, в том же VPC)
  • Интерфейс чат-бота, реализующий компонент памяти (например, через LangChain)

 

“Этот метод позволяет добиться взаимодействия с пользователем, подобного ChatGPT, в приватной манере”, — говорит Хотц. Инженеры могли бы применять аналогичные подходы и применять творческую тактику решения проблем для разработки генеративных ИИ-решений с сохранением конфиденциальности в качестве главного приоритета, хотя данные обучения генеративному ИИ по—прежнему создают серьезные проблемы с конфиденциальностью, поскольку они получены из поиска в Интернете.

 

5. Прозрачность

Прозрачность означает, что результаты генеративного ИИ становятся максимально понятными и объяснимыми. Без этого пользователи не смогут эффективно проверять факты и оценивать контент, созданный ИИ. Хотя мы, возможно, не сможем решить проблему черных ящиков ИИ в ближайшее время, разработчики могут предпринять несколько мер для повышения прозрачности решений с генеративным ИИ.

Гупта способствовал прозрачности ряда функций во время работы над 1nb.ai, платформой для метаанализа данных, которая помогает преодолеть разрыв между специалистами по обработке данных и бизнес-лидерами. Используя автоматическую интерпретацию кода, 1nb.ai создает документацию и предоставляет аналитические данные через интерфейс чата, которые могут запрашивать члены команды.

“Для нашей функции генеративного ИИ, позволяющей пользователям получать ответы на вопросы на естественном языке, мы предоставили им исходную ссылку, из которой был извлечен ответ (например, блокнот data science из их хранилища)”. 1nb.ai также четко указано, какие функции платформы используют генеративный ИИ, чтобы пользователи имели свободу действий и осознавали риски.

Читать  Для чего применяют машинное обучение в разработке мобильных приложений для бизнеса

Разработчики, работающие над чат-ботами, могут приложить аналогичные усилия для раскрытия источников и указания того, когда и как ИИ используется в приложениях, — если они смогут убедить заинтересованные стороны согласиться с этими условиями.

 

Рекомендации для будущего генеративного ИИ в бизнесе

Этика генеративного ИИ не только важна и срочна — она, вероятно, также принесет прибыль. Внедрение этичных методов ведения бизнеса, таких как инициативы ESG, связано с увеличением доходов. Что касается конкретно ИИ, то опрос, проведенный Economist Intelligence Unit, показал, что 75% руководителей выступают против сотрудничества с поставщиками услуг искусственного интеллекта, в продуктах которых отсутствует ответственный дизайн.

Расширяя наше обсуждение этики генеративного ИИ до более широкого масштаба, охватывающего целые организации, возникает множество новых соображений, выходящих за рамки описанных пяти столпов этического развития. Генеративный ИИ повлияет на общество в целом, и компаниям следует начать решать потенциальные дилеммы, чтобы оставаться на опережение. Эксперты Toptal по ИИ предполагают, что компании могут активно снижать риски несколькими способами:

  • Устанавливайте цели устойчивого развития и снижайте потребление энергии: Гупта указывает, что стоимость обучения одного магистра права, такого как GPT-3, огромна — она примерно равна годовому потреблению электроэнергии более 1000 домохозяйств США, — а стоимость ежедневных запросов GPT еще выше. Предприятиям следует инвестировать в инициативы, направленные на минимизацию этого негативного воздействия на окружающую среду.
  • Поощряйте разнообразие в процессах подбора персонала: “Разнообразные точки зрения приведут к созданию более продуманных систем”, — объясняет Хотц. Разнообразие связано с ростом инноваций и прибыльности; нанимая сотрудников для разнообразия в индустрии генеративного ИИ, компании снижают риск предвзятых или дискриминационных алгоритмов.
  • Создание систем мониторинга качества LLM: Производительность LLM сильно варьируется, и исследования показали значительные изменения в производительности и поведении как в GPT-4, так и в GPT-3.5 с марта по июнь 2023 года, отмечает Гупта. “Разработчикам не хватает стабильной среды, на которую можно опираться при создании приложений с генеративным ИИ, и компаниям, полагающимся на эти модели, необходимо будет постоянно отслеживать динамику LLM, чтобы постоянно соответствовать стандартам продукта”.
  • Создание публичных форумов для общения с пользователями генеративного ИИ: Карчи считает, что повышение (несколько отсутствующее) осведомленности общественности о вариантах использования генеративного ИИ, рисках и способах обнаружения имеет важное значение. Компании должны прозрачно и доступно сообщать о своих методах обработки данных и предлагать обучение ИИ; это дает пользователям возможность выступать против неэтичных практик и помогает уменьшить растущее неравенство, вызванное технологическими достижениями.
  • Внедряйте процессы надзора и системы проверки: цифровые лидеры, такие как Meta, Google и Microsoft, создали комиссии по проверке ИИ, и генеративный ИИ сделает систему сдержек и противовесов для этих систем более важной, чем когда-либо, говорит Хотц. Они играют важную роль на различных этапах разработки продукта, учитывая непреднамеренные последствия до начала проекта, добавляя требования проекта для уменьшения вреда, а также отслеживая и устраняя вред после выпуска.

 

По мере роста потребности в ответственных методах ведения бизнеса и увеличения прибыли от таких методов, несомненно, появятся новые роли — и даже целые бизнес-подразделения. Компания AWS Hotz определила FMOps/LLMOps как развивающуюся дисциплину, имеющую все большее значение и в значительной степени совпадающую с этикой генеративного ИИ. FMOps (foundation model operations) включает в себя запуск приложений с генеративным ИИ в производство и последующий мониторинг, объясняет он. “Поскольку FMOps состоит из таких задач, как мониторинг данных и моделей, принятие корректирующих мер, проведение аудитов и оценок рисков, а также установление процессов для постоянного совершенствования модели, существует большой потенциал для внедрения генеративной этики ИИ в этом процессе”.

Независимо от того, где и как этические системы внедрены в каждой компании, очевидно, что в будущем генеративный ИИ приведет к тому, что предприятия и инженеры будут одинаково инвестировать в этические практики и ответственное развитие. Генеративный ИИ способен формировать мировой технологический ландшафт, и четкие этические стандарты жизненно важны для обеспечения того, чтобы его преимущества перевешивали риски.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд (1 оценок, среднее: 5,00 из 5)
Загрузка...
Поделиться в соц. сетях:


5 1 голос
Рейтинг статьи
Подписаться
Уведомить о
guest

**ссылки nofollow

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии

Это может быть вам интересно


Рекомендуемое
Лестницы на металлическом каркасе – это не просто функциональный элемент,…

Спасибо!

Теперь редакторы в курсе.