Генеративный ИИ присутствует повсюду. 77% руководителей считают, что благодаря способности создавать тексты, изображения, видео и многое другое, он будет наиболее эффективной новой технологией в ближайшие три-пять лет. Хотя генеративный ИИ исследуется с 1960-х годов, в последние годы его возможности расширились благодаря беспрецедентному объему обучающих данных и появлению базовых моделей в 2021 году. Эти факторы сделали возможными такие технологии, как ChatGPT и DALL-E, и положили начало широкому внедрению генеративного ИИ.
Однако его быстрое влияние и рост также порождают множество этических проблем, говорит Сурб Гупта, специалист по GPT и инженер по ИИ в Toptal, который работал над передовыми проектами по обработке естественного языка (NLP), начиная от чат-ботов и инструментов генерации маркетингового контента и заканчивая переводчиками кода. Гупта лично столкнулся с такими проблемами, как галлюцинации, предвзятость и перекосы. Например, она заметила, что один чат-бот с генеративным ИИ, предназначенный для определения целей бренда пользователей, с трудом задавал персонализированные вопросы (вместо этого в зависимости от общих тенденций отрасли) и не реагировал на неожиданные ситуации с высокими ставками. “В косметическом бизнесе будут задаваться вопросы о важности натуральных ингредиентов, даже если для уникальной точки продажи используются индивидуальные формулы для разных типов кожи. И когда мы тестировали крайние случаи, такие как побуждение чат-бота к самоповреждающим мыслям или предвзятой идее бренда, он иногда переходил к следующему вопросу, не реагируя на проблему и не решая ее ”.
Действительно, только за последний год генеративный ИИ распространил неверные финансовые данные, породил галлюцинации по фальшивым судебным делам, создал предвзятые изображения и поднял множество проблем с авторским правом. Хотя Microsoft, Google и ЕС предложили лучшие практики для развития ответственного ИИ, эксперты, с которыми мы беседовали, говорят, что постоянно растущая волна новых технологий генеративного ИИ требует дополнительных рекомендаций из-за их неконтролируемого роста и влияния.
Этика и нормативные акты в области ИИ обсуждались законодателями, правительствами и технологами по всему миру на протяжении многих лет. Но недавний генеративный ИИ повышает актуальность таких мандатов и риски, одновременно усиливая существующие опасения ИИ по поводу дезинформации и необъективных данных обучения. Это также ставит новые задачи, такие как обеспечение подлинности, прозрачности и четких правил владения данными, говорит эксперт Toptal по ИИ Хайко Хотц. Имея более чем 20-летний опыт работы в технологическом секторе, Хотц в настоящее время консультирует мировые компании по вопросам генеративного ИИ в качестве старшего архитектора решений для искусственного интеллекта и машинного обучения в AWS.
Существующая проблема | Перед широким внедрением генеративного ИИ | После широкого внедрения генеративного ИИ |
Дезинформация | Основным риском была полная дезинформация (например, в социальных сетях). Интеллектуальные манипуляции с контентом с помощью таких программ, как Photoshop, можно было легко обнаружить по происхождению или цифровой экспертизе, говорит Хотц. | Генеративный ИИ может ускорить распространение дезинформации из-за низкой стоимости создания поддельного, но реалистичного текста, изображений и аудио. Возможность создавать персонализированный контент на основе личных данных человека открывает новые возможности для манипуляций (например, мошенничество с клонированием голоса ИИ), и трудности с обнаружением подделок сохраняются. |
Предвзятость | Предвзятость всегда была большой проблемой для алгоритмов искусственного интеллекта, поскольку она увековечивает существующее неравенство в основных социальных системах, таких как здравоохранение и рекрутинг. В 2019 году в США был принят Закон об алгоритмической подотчетности, отражающий проблему усиления дискриминации. | Наборы данных для обучения генеративному ИИ усиливают предвзятость в беспрецедентных масштабах. “Модели учитывают глубоко укоренившуюся социальную предвзятость в массивах неструктурированных данных (например, корпусах текстов), что затрудняет проверку их источника”, – говорит Хотц. Он также указывает на риск возникновения циклов обратной связи из-за предвзятых результатов генеративной модели, создающих новые обучающие данные (например, когда новые модели обучаются по статьям, написанным ИИ). |
В частности, потенциальная неспособность определить, является ли что-либо созданным искусственным интеллектом или человеком, имеет далеко идущие последствия. Хотц утверждает, что благодаря видео-подделкам, реалистичному искусству искусственного интеллекта и чат-ботам, которые могут имитировать сочувствие, юмор и другие эмоциональные реакции, генеративный обман ИИ является главной проблемой.
Также актуальным является вопрос владения данными – и соответствующие правовые нормы, касающиеся интеллектуальной собственности и конфиденциальности данных. Большие наборы обучающих данных затрудняют получение согласия от первоисточников, их атрибуцию или признание их подлинности, а расширенные возможности персонализации, имитирующие работу конкретных музыкантов или артистов, создают новые проблемы с авторским правом. Кроме того, исследования показали, что магистры права могут раскрывать конфиденциальную или личную информацию из своих учебных данных, и, по оценкам, 15% сотрудников уже подвергают бизнес-данные риску, регулярно вводя информацию о компании в ChatGPT.
Для борьбы с этими масштабными рисками необходимо быстро определить и внедрить руководящие принципы разработки ответственного генеративного ИИ, говорит разработчик Toptal Исмаил Карчи. Он работал над множеством проектов в области искусственного интеллекта и науки о данных, включая системы для Jumia Group, оказывающие влияние на миллионы пользователей. “Этичный генеративный ИИ – это общая ответственность, в которой участвуют заинтересованные стороны на всех уровнях. Каждый человек должен сыграть свою роль в обеспечении того, чтобы ИИ использовался с уважением прав человека, содействовал справедливости и приносил пользу обществу в целом ”, – говорит Карчи. Но он отмечает, что разработчики особенно важны при создании этичных систем искусственного интеллекта. Они выбирают данные этих систем, проектируют их структуру и интерпретируют их результаты, и их действия могут иметь значительные волновые эффекты и влиять на общество в целом. Этические инженерные практики являются основой междисциплинарной и совместной ответственности за создание этичного генеративного ИИ.
Для достижения ответственного генеративного ИИ Karchi рекомендует внедрять этику в инженерную практику как на образовательном, так и на организационном уровнях: “Подобно медицинским работникам, которые руководствуются этическим кодексом с самого начала своего образования, подготовка инженеров также должна включать фундаментальные принципы этики”.
Здесь Гупта, Хотц и Карчи предлагают именно такой этический кодекс генеративного ИИ для инженеров, определяя пять этических столпов, которые необходимо соблюдать при разработке генеративных ИИ-решений. Эти принципы основаны на мнениях других экспертов, ведущих руководствах по ответственному ИИ и дополнительных рекомендациях, ориентированных на генеративный ИИ, и предназначены специально для инженеров, создающих генеративный ИИ.
Учитывая существующие опасения генеративного ИИ по поводу дезинформации, инженеры должны уделять приоритетное внимание точности и правдивости при разработке решений. Такие методы, как проверка качества данных и исправление моделей после сбоя, могут помочь достичь точности. Одним из наиболее известных методов для этого является расширенная генерация поиска (RAG), ведущий метод повышения точности и правдивости в LLM, объясняет Хотц.
Он нашел эти методы RAG особенно эффективными:
Для таких приложений, как чат-боты, разработчики могут также создавать способы для пользователей получать доступ к источникам и перепроверять ответы независимо, чтобы помочь бороться с тенденциозностью автоматизации.
Генеративный ИИ открыл новую эру неопределенности в отношении подлинности контента, такого как текст, изображения и видео, что делает все более важным создание решений, которые могут помочь определить, является ли контент созданным человеком и подлинным. Как упоминалось ранее, эти подделки могут усиливать дезинформацию и вводить людей в заблуждение. Например, они могут влиять на выборы, способствовать краже личных данных или ухудшать цифровую безопасность, а также вызывать случаи преследования или диффамации.
“Устранение этих рисков требует многогранного подхода, поскольку они вызывают юридические и этические проблемы, но первым неотложным шагом является создание технологических решений для обнаружения глубоких подделок”, — говорит Карчи. Он указывает на различные решения:
Важно отметить, что подделки под генеративный ИИ быстро совершенствуются, и методы обнаружения должны догонять их. “Это постоянно развивающаяся область, где технологии обнаружения и генерации часто застревают в игре в кошки-мышки”, – говорит Карчи.
Предвзятые системы могут поставить под угрозу справедливость, точность, достоверность и права человека — и иметь серьезные правовые последствия. Проекты с генеративным ИИ должны разрабатываться таким образом, чтобы с самого начала их разработки устранять предвзятость, говорит Карчи.
Он нашел два метода особенно полезными при работе над научными данными и программными проектами:
Он также отмечает важность учета отзывов пользователей в цикле разработки продукта, которые могут дать ценную информацию о предполагаемых предубеждениях и несправедливых результатах. Наконец, наем разнородного технического персонала обеспечит учет различных точек зрения и поможет обуздать предвзятость в отношении алгоритмов и ИИ.
Хотя генеративный ИИ вызывает много опасений по поводу конфиденциальности данных в отношении согласия и авторских прав, здесь мы сосредоточены на сохранении конфиденциальности пользовательских данных, поскольку это может быть достигнуто в течение жизненного цикла разработки программного обеспечения. Генеративный ИИ делает данные уязвимыми во многих отношениях: Из-за него может произойти утечка конфиденциальной информации о пользователях, используемой в качестве обучающих данных, и информация, введенная пользователем, может быть передана сторонним поставщикам, что произошло, когда были раскрыты корпоративные секреты Samsung.
Hotz работала с клиентами, желающими получить доступ к конфиденциальной или частной информации с помощью чат-бота document и защитила вводимые пользователем данные с помощью стандартного шаблона, который использует несколько ключевых компонентов:
“Этот метод позволяет добиться взаимодействия с пользователем, подобного ChatGPT, в приватной манере”, – говорит Хотц. Инженеры могли бы применять аналогичные подходы и применять творческую тактику решения проблем для разработки генеративных ИИ-решений с сохранением конфиденциальности в качестве главного приоритета, хотя данные обучения генеративному ИИ по—прежнему создают серьезные проблемы с конфиденциальностью, поскольку они получены из поиска в Интернете.
Прозрачность означает, что результаты генеративного ИИ становятся максимально понятными и объяснимыми. Без этого пользователи не смогут эффективно проверять факты и оценивать контент, созданный ИИ. Хотя мы, возможно, не сможем решить проблему черных ящиков ИИ в ближайшее время, разработчики могут предпринять несколько мер для повышения прозрачности решений с генеративным ИИ.
Гупта способствовал прозрачности ряда функций во время работы над 1nb.ai, платформой для метаанализа данных, которая помогает преодолеть разрыв между специалистами по обработке данных и бизнес-лидерами. Используя автоматическую интерпретацию кода, 1nb.ai создает документацию и предоставляет аналитические данные через интерфейс чата, которые могут запрашивать члены команды.
“Для нашей функции генеративного ИИ, позволяющей пользователям получать ответы на вопросы на естественном языке, мы предоставили им исходную ссылку, из которой был извлечен ответ (например, блокнот data science из их хранилища)”. 1nb.ai также четко указано, какие функции платформы используют генеративный ИИ, чтобы пользователи имели свободу действий и осознавали риски.
Разработчики, работающие над чат-ботами, могут приложить аналогичные усилия для раскрытия источников и указания того, когда и как ИИ используется в приложениях, — если они смогут убедить заинтересованные стороны согласиться с этими условиями.
Этика генеративного ИИ не только важна и срочна — она, вероятно, также принесет прибыль. Внедрение этичных методов ведения бизнеса, таких как инициативы ESG, связано с увеличением доходов. Что касается конкретно ИИ, то опрос, проведенный Economist Intelligence Unit, показал, что 75% руководителей выступают против сотрудничества с поставщиками услуг искусственного интеллекта, в продуктах которых отсутствует ответственный дизайн.
Расширяя наше обсуждение этики генеративного ИИ до более широкого масштаба, охватывающего целые организации, возникает множество новых соображений, выходящих за рамки описанных пяти столпов этического развития. Генеративный ИИ повлияет на общество в целом, и компаниям следует начать решать потенциальные дилеммы, чтобы оставаться на опережение. Эксперты Toptal по ИИ предполагают, что компании могут активно снижать риски несколькими способами:
По мере роста потребности в ответственных методах ведения бизнеса и увеличения прибыли от таких методов, несомненно, появятся новые роли — и даже целые бизнес-подразделения. Компания AWS Hotz определила FMOps/LLMOps как развивающуюся дисциплину, имеющую все большее значение и в значительной степени совпадающую с этикой генеративного ИИ. FMOps (foundation model operations) включает в себя запуск приложений с генеративным ИИ в производство и последующий мониторинг, объясняет он. “Поскольку FMOps состоит из таких задач, как мониторинг данных и моделей, принятие корректирующих мер, проведение аудитов и оценок рисков, а также установление процессов для постоянного совершенствования модели, существует большой потенциал для внедрения генеративной этики ИИ в этом процессе”.
Независимо от того, где и как этические системы внедрены в каждой компании, очевидно, что в будущем генеративный ИИ приведет к тому, что предприятия и инженеры будут одинаково инвестировать в этические практики и ответственное развитие. Генеративный ИИ способен формировать мировой технологический ландшафт, и четкие этические стандарты жизненно важны для обеспечения того, чтобы его преимущества перевешивали риски.