Microsoft запрещает пользователям заниматься реинжинирингом и собирать данные из своего программного обеспечения ИИ для обучения или улучшения других моделей, а также будет хранить входные данные, передаваемые в её продукты, и все полученные результаты.

Подробности появились в тот момент, когда компании столкнулись с новыми проблемами, связанными с развитием генеративного ИИ. Люди хотят знать, что корпорации делают с информацией, предоставленной пользователями. Пользователям также интересно, что они могут делать с контентом, генерируемым искусственным интеллектом.

Microsoft рассматривает эти проблемы в новом пункте под названием “Сервисы искусственного интеллекта” в своих условиях предоставления услуг.

Пять новых политик, которые были представлены 30 июля и вступят в силу 30 сентября, гласят следующее:

  • Реверс-инжиниринг. Запрещается использовать услуги искусственного интеллекта для обнаружения каких-либо компонентов моделей, алгоритмов и систем.
  • Извлечение данных. За исключением случаев, когда это явно разрешено, запрещается использовать методы веб-скреппинга, веб-сборки или веб-извлечения данных для извлечения данных из служб ИИ.
  • Ограничения на использование данных из служб ИИ. Запрещается использовать службы ИИ или данные из служб ИИ для создания, обучения или улучшения (прямо или косвенно) любых других служб ИИ.
  • Использование вашего контента. В рамках предоставления услуг искусственного интеллекта, корпорация Майкрософт будет обрабатывать и хранить ваши данные, поступающие в службу, а также выходные данные службы, в целях мониторинга и предотвращения неправомерного использования.
  • Претензии третьих лиц. Вы несёте полную ответственность на любые претензии третьих лиц в отношении использования вами услуг ИИ в соответствии с действующим законодательством (включая, помимо прочего, нарушения авторских прав или другие претензии, связанные с выводом контента во время использования вами услуг ИИ).

В некоторых случаях можно легко “заглянуть под капот” некоторых продуктов Microsoft с искусственным интеллектом. Например, при запуске чат-бота Bing, работающего на основе искусственного интеллекта, пользователи обнаружили подсказки, используемые для формирования его поведения, и раскрыли его секретное кодовое имя “Сидней”. Разработчики также пытались заглянуть в основной код, чтобы лучше понять, как он генерирует текст. В соответствии с новыми правилами всё это теперь технически запрещено.

Правила, запрещающие разработчикам использовать любые данные, полученные с помощью моделей искусственного интеллекта, для улучшения и обучения других систем, были приняты и другими компаниями, такими как Meta*, Google, OpenAI и Anthropic. Однако неясно, насколько это может быть реализовано, особенно с учётом того, что всё больше и больше текста в Интернете пишется машинами, и все они используют эти ресурсы для обучения своих собственных моделей.

Представитель Microsoft отказался комментировать, как долго компания планирует хранить вводимые пользователем данные в своём программном обеспечении.

Однако ранее компания Microsoft заявляла, что не сохраняет и не использует данные для обучения моделей искусственного интеллекта корпоративного чата Bing. В отношении Microsoft 365 Copilot политика несколько более туманна, хотя, судя по всему, он не использует данные клиентов или подсказки для обучения, но сохраняет информацию.

Одним словом, будьте внимательны к тому, что вы вводите в Bing, если вы не являетесь корпоративным пользователем и не хотите, чтобы Microsoft хранила ваши данные при взаимодействии с чат-ботом.

*Meta Platforms Inc. признана экстремистской организацией и запрещена в России.

Материалы: Theregister.com (Katyanna Quach)

0 комментариев
Старые
Новые Популярные
Межтекстовые Отзывы
Посмотреть все комментарии
0
Оставь комментарий! Поделись своим мнениемx