AI-заветы Google похожи на отписку

AI-заветы Google похожи на отписку

Редакция Tipler
Политика 08.06.2018
921

Google опубликовал ряд принципов, которых компания планирует придерживаться в своей работе над развитием технологий искусственного интеллекта.

Итак, внимательно смотрим:

  • Будьте социально полезными: необходимо учитывать широкий спектр социально-экономических факторов, уважать культурные, социальные, правовые нормы при развитии технологий ИИ и их интеграции в повседневную жизнь людей. Ведь общие вероятные выгоды превосходят предсказуемые риски и недостатки этого процесса.
  • Избегайте создания или усиления несправедливой предвзятости: избегайте несправедливых воздействий на общество. Особенно речь идет о людях, связанных с такими чувствительными характеристиками как раса, этническая принадлежность, пол, национальность, доход, сексуальная ориентация, политические или религиозные убеждения.
  • Обеспечение и проверка безопасности: необходимо применять эффективные методы обеспечения надлежащей безопасности, чтобы избежать непредвиденных результатов, которые создают риск причинения вреда.
  • Будьте подотчетны: предоставьте соответствующие возможности для обратной связи, соответствующие объяснения, апелляционные доводы.
  • Принципы конфиденциальности: предоставьте возможность для уведомления и согласия пользователей о возможном использовании их данных. Поощряйте сервисы с защитой конфиденциальности, обеспечите надлежащую прозрачность процессов, контроль над использованием данных.
  • Поддерживайте высокие стандарты научного совершенства: работайте с несколькими заинтересованными сторонами, чтобы продвигать вдумчивое лидерство, опираясь на строго научные, многодисциплинарные подходы. Важно ответственно делиться знаниями об искусстве, публикуя учебные материалы, передовые методы и исследования, которые позволяют большему числу людей разрабатывать полезные для технологии AI.

Доступность использования: ограничьте потенциально вредные или оскорбительные приложения. Факторами для оценки здесь являются масштаб, уникальность, основная цель и роль Google.

Кроме того, IT-гигант определил те направления, в которых компания не будет развивать искусственный интеллект:

  • Технологии, которые могут причинить общий ущерб. (С учетом анализа рисков и выгод).

  • Оружие или другие технологии, которые могут быть применены для нанесения вреда людям.
  • Технологии, которые собирают или используют информацию для наблюдения, нарушая международные признанные нормы.

Технологии, чья цель противоречит общепринятым принципам международного права и прав человека.

Принципы Google: шаг вперед или недоработка?

Стоит сказать, что во всех принципах и их описаниях Google оставляет себе значительную свободу действий с применением таких слов, как - надлежащий, соответствующий. Как определяется соответствующая обратная связь? Или надлежащий уровень безопасности? Можно сказать, что сложно ожидать жестких правил в этом уведомлении. Но учитывая, что корпорация уже много лет является лидером в сфере ИИ, у нее было много времени и оснований на формирование чего-то большего, чем простые принципы. К тому же известен ряд прецедентов, когда технологии, основанные на искусственном интеллекте, наносили вред здоровью и даже становились причиной гибели людей. Взять хотя бы не столь давнюю историю с наездом самоуправляемого автомобиля на пешехода, который в результате погиб.

Конечно, опубликованные концепции заслуживают похвалы, но приложения ИИ не абстрактны, эти системы используются сегодня повсеместно: для определения развертывания полицейских сил, определения ставки по кредитам или анализа медицинских данных и во многих других направлениях. Необходима разработка реальных и жестких правил. 

Если Google действительно намерен сохранить свою лидерскую позицию в этой области, он должен установить их или опубликовать полностью, дабы не вводить общественность в заблуждение.

   

Самые интересные статьи, обзоры и размышления — в рассылке!

Спасибо за заявку
Ожидайте нашего звонка.