Насколько предвзятым является искусственный интеллект?

При цитировании информации активная гиперссылка на evo-rus.com обязательна.

Если вам интересно, что такое искусственный интеллект, то вот краткое определение для вас – это попытка передать человеческое обучение и мышление компьютеру и, таким образом, придать ему интеллект. В результате ИИ может самостоятельно находить ответы и самостоятельно решать проблемы.

Гориллы вместо людей: был ли искусственный интеллект предвзятым на расовой почве?

Несколько лет назад ошибка ИИ вызвала серьезные волнения. Программа автоматического распознавания изображений Google неправильно классифицировала фотографию группы афроамериканцев как «гориллы». Это естественно расстроило общественность, и в ответ на эту расистскую классификацию последовали протесты.
Вы, наверное, задаетесь вопросом, как это вообще могло произойти. Вот ответ: в учебном материале по ИИ было непропорционально большое количество фотографий светлокожих людей в базе данных изображений в категории «Люди»; и в то же время было всего несколько темнокожих людей. Таким образом, причиной неправильной классификации было недостаточное разнообразие вводимых данных. Соответственно, искусственный интеллект был предвзятым, потому что он был более знаком со светлокожими людьми как представителем человеческой категории. Если бы ИИ не был разработан с такими односторонними данными, система не совершила бы такой ошибки. Но и здесь разработчики смогли извлечь уроки из этой ошибки, чтобы впоследствии оптимизировать свое программное обеспечение.

Расистские ИИ в медицине

Есть несколько способов использования ИИ в медицине – например, для выявления заболеваний как можно раньше. Но ИИ также могут принимать решения о дальнейших потребностях в лечении. Оказалось, что чернокожие люди должны были страдать от значительно худшего состояния здоровья, чем белые, чтобы получить разрешение на более интенсивное лечение. Таким образом, ИИ характеризуется значительным расовым уклоном. Как это произошло? В системе здравоохранения США с самого начала существовало структурное неравенство между людьми с разным цветом кожи.

Выявляйте преступления, глядя на свое лицо

Искусственный интеллект теперь можно использовать во многих областях, чтобы облегчить людям работу. Трое исследователей из Гаррисбургского университета в Пенсильвании научили систему машинного обучения использовать фотографию человеческого лица, чтобы определить, станет ли кто-то из испытуемых преступником. Американские исследователи с гордостью сообщили о 80-процентной эффективности. Однако не все были в восторге от этого нововведения, поэтому технология была изучена более тщательно. Хамид Арабина, ученый-компьютерщик из Университета Джорджии, был одним из рецензентов. Система работает с данными полиции, которая, по словам Арабины, уже находится в неверном положении. Система, которая решает, станет ли кто-то преступником в будущем, основана на статистике. ИИ регистрирует изображения людей, которые либо являются преступниками, либо нет, и распознает характеристики, которые могут указывать на преступную деятельность. Затем ИИ использует эти знания в дальнейшем курсе.

Основная проблема здесь в том, что данные о преступности дают неверную картину. В США, например, цветных людей проверяют чаще, потому что они считаются более опасными из-за расистских предрассудков. В конце концов, все сводится к тому, что система, которая учится на этих полицейских данных, классифицирует цветных людей как более преступных, чем белых.

Что касается расизма, можно привести еще больше примеров, демонстрирующих, насколько предвзятым может быть искусственный интеллект. Существуют различные программные продукты, которые помогают судьям принимать решения. Как вы, наверное, догадались, ИИ тоже не безошибочен и считает цветных людей более опасными или «виноватыми».

Можно ли устранить предвзятость в искусственном интеллекте?

Компьютерные ученые и сообщества ИИ, конечно, знают об этой проблеме и уже работают над ее решением. Такие компании как Microsoft и Google разработают собственные этические принципы для ИИ. Недостатком всего этого является то, что культурные и социальные нюансы, которые формируют различные интерпретации этического поведения, до сих пор не были должным образом уловлены и отражены.

Таким образом, цель в будущем – обеспечить больший учет контекстных и перцептивных различий при разработке ИИ, тем самым повышая общую эффективность алгоритмов. Кроме того, новым моделям искусственного интеллекта необходимо придать определенную динамику, чтобы они могли развиваться дальше в ходе культурных и социальных изменений.

Пока неясно, когда этот проект будет полностью реализован и оптимизирован, но его намерения велики и, безусловно, будут способствовать повышению ценности ИИ и продвижению человечества в исследованиях.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

Кнопка «Наверх»