среда, 19 декабря 2018 г.

«Предвзятость» искусственного интеллекта может привести к пагубным последствиям

«Предвзятость» искусственного интеллекта может привести к пагубным последствиям

Хотя теоретически машина нейтральна и ей не свойственна необъективность, в последнее время были зафиксированы случаи, показывающие, что даже алгоритмы могут иметь пристрастия. Некоторые предрассудки могут проникать в систему искусственного интеллекта из реального мира, пишет cnbc.com.
Photo copyright: pixabay.com. CC0
Фантасты предсказывали, как ИИ может однажды захватить мир и пойти против людей, но специалисты предупреждают о намного более близкой опасности, о так называемом предубежденном искусственном интеллекте. Имеются в виду программы, основанные на дефектных алгоритмах или на недостаточном объеме данных, что может создать незаслуженное предубеждение против некоторых людей. Есть примеры того, что это является проблемой уже сегодня.
Темой первых газетных полос стало то, что технология распознавания лиц не включает в себя расовые признаки. Программы по распознаванию изображений темнокожих женщин ошибались в 35% случаев, по данным Массачусетского технологического института. Для сравнения, ошибки по узнаванию белых мужчин составляли примерно 1%. Также на предвзятости было основано решение Google заблокировать гендерные местоимения в функциях Smart Compose, одна из инноваций, в которых задействован ИИ.
Вероятность проблем, связанных с предрассудками в ИИ, заходит гораздо дальше и демонстрирует, как некоторые отклонения, существующие в реальном мире, могут влиять на технологию. Программы ИИ состоят из алгоритмов, набора правил, помогающих принимать решения при минимальном участии человека. Но для выработки этих правил необходима загрузка информации. Поэтому в компьютерную платформу могут просочиться человеческие предрассудки.
«Возможность доступа к обширным и разнообразным массивам информации позволяет научить алгоритмы поддерживать принципы справедливости», — полагает Энтони Кук, помощник главного консультанта Microsoft по корпоративным, внешним и правовым вопросам в Азии.
Однако, добавляет он, решение «проблемы отклонений связано не только с выработкой больших объемов информации, но и с тем, как система ИИ использует эти данные». Олли Бастон, генеральный директор аналитического центра Future Advocacy поясняет, что машина часто отражает человеческие предрассудки.
«Например, если алгоритм, подбирающий людей на руководящую работу, выработан на основе данных, в которых отражен тот факт, что исторически такие должности чаще всего занимают мужчины, то это отразится в будущих действиях этого алгоритма».
Эксперты призывают к большему разнообразию в сфере ИИ, полагая, что это поможет преодолевать отклонения. «Говоря о предвзятости, мы прежде всего беспокоимся о направленности тех людей, которые создают алгоритмы, — сообщил CNBC Кай Фирт-Баттерфилд, специалист по ИИ и машинному обучению. – Нам нужно сделать эту отрасль на Западе как можно более разнообразной».
Заинтересованные стороны из самых разных сфер должны постоянно участвовать в обсуждениях того, что представляет собой комплексный ИИ, этой обеспокоенностью людей должны заниматься не только эксперты по технологии, считает Кук из Microsoft.
«Многосторонний подход необходим, чтобы обеспечить, что рядом с технологами работают гуманисты. Так мы получим наиболее открытый для всех ИИ, — утверждает Кук. – Человеческие решения основываются не на единицах и нулях, а на социальной ситуации, социальной базе».
Он добавляет, что в дебатах об этических правилах, применяемых для ИИ, должны участвовать технологические фирмы, правительства и гражданское общество. Предубежденность ИИ может иметь жизненно важные последствия для личности. Поскольку отклонения в ИИ существуют, важно не предоставлять программе принятие важных решений, считает Тоби Вэлш, профессор в области ИИ в университете Нового Южного Уэльса.
Особенно в тех случаях, добавляет он, когда такое решение может напрямую повредить жизни или свободе личности. Примерами может служить использование ИИ при принятии на работу или в составе самоуправляемого оружия при военных конфликтах.
«Существует опасность, что ИИ, обученный на данных по одной группе населения, с данными по другой группе будет работать менее успешно», — сообщает Бастон. – Например, некоторые приложения ИИ, разработанные в Европе или Америке, хуже проявляя себя в Азии».
«Если мы постараемся и найдем математически точное определение этики, мы сможем справиться с предубеждениями в ИИ, и тогда у нас будет возможность передоверить некоторые из таких решений более справедливым машинам, — говорит Вэлш. – Но мы никогда не позволим машине решать, кому жить, а кому умереть».
Евгений Фролов, отдел иностранной прессы
Источник

Комментариев нет:

Отправить комментарий